EP2392890A1 - Verfahren zum Einweisen eines Flugkörpers auf ein Ziel - Google Patents

Verfahren zum Einweisen eines Flugkörpers auf ein Ziel Download PDF

Info

Publication number
EP2392890A1
EP2392890A1 EP11004429A EP11004429A EP2392890A1 EP 2392890 A1 EP2392890 A1 EP 2392890A1 EP 11004429 A EP11004429 A EP 11004429A EP 11004429 A EP11004429 A EP 11004429A EP 2392890 A1 EP2392890 A1 EP 2392890A1
Authority
EP
European Patent Office
Prior art keywords
target
missile
data
reconnaissance
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP11004429A
Other languages
English (en)
French (fr)
Other versions
EP2392890B1 (de
Inventor
Michael Dr. Gross
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Defence GmbH and Co KG
Original Assignee
Diehl BGT Defence GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl BGT Defence GmbH and Co KG filed Critical Diehl BGT Defence GmbH and Co KG
Publication of EP2392890A1 publication Critical patent/EP2392890A1/de
Application granted granted Critical
Publication of EP2392890B1 publication Critical patent/EP2392890B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/008Combinations of different guidance systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target

Definitions

  • the invention relates to a method for instructing a missile on a target, wherein the target data, by means of which the missile is controllable to the target, assembled and given to the missile for driving to the target.
  • the coordinates of the target or other target data describing the target are collected and passed to the missile which is to fight the target.
  • the missile or its seeker head detects the target during the approach to the target and is thus instructed to the target.
  • This object is achieved by a method of the aforementioned type, in which according to the invention reconnaissance data from a reconnaissance sensor by a missile homing system to detection assistance data containing information about the target data beyond the target data, processed and given to the missile.
  • the invention is based on the consideration that if a target is attacked using target data alone, such as target coordinates, collateral damage may under certain circumstances not be reliably prevented.
  • target data alone such as target coordinates
  • collateral damage may under certain circumstances not be reliably prevented.
  • the detection of the target can be made more reliable if, in addition to the target data, the missile is provided with additional information that supports a target acquisition.
  • acquisition support data may include how the target may be detected at the time the missile approaches the target, such as which type of sensor, in which spectrum, and / or by which optical features.
  • the acquisition support data may also include information about how well the target is recognizable. If, for example, the target is only recognizable very late because of atmospheric turbidity, a high-weighting can be given to a coordinate-based instruction without the target initially being detected as such.
  • the missile can be reliably trained on the target based on the detection assistance data.
  • the missile may be a missile with or without its own drive. It expediently comprises a seeker head with a sensor for detecting target properties, for example an optical sensor.
  • the target data is data by which the missile is controllable to the target. They can be destination coordinates, coordinates of a destination area, and / or the destination in data so far determinative, so that the destination as such can be detected by the destination data.
  • the missile is expediently equipped with a process unit that is prepared to control the missile based on the target data into the target, in particular to detect the target based on the target data. The detection can be done optically, so that the target is recognized as such, and the use of any suitable frequency, for example in the visual, infrared or radar range, is possible.
  • the reconnaissance sensor may be any suitable sensor. It is expediently part of a reconnaissance network consisting of a large number of, in particular, different reconnaissance sensors.
  • the enlightenment data are expediently data about the destination and / or the destination area. They can be retrieved from a database by the Missile Injection System and desirably describe the target or target area at a historical time so that they can be referred to as archive information.
  • the reconnaissance data are expediently available to a large number of retrievers, for example several missiles or missile instruction systems.
  • the missile registration system may include a ground-based process unit that is connected to the missile via remote data transmission.
  • the detection assistance data is expediently output to the missile before the missile sensor contacts the target.
  • the missile may be controlled to the target depending on the detection assist data, that is, using the detection assist data, so that the detection assist data may be used directly or indirectly as control information for controlling the missile.
  • the missile is controlled to the target using the detection assistance data before the missile detects the target.
  • the reconnaissance data contain information about a recognizability of the target.
  • Such information may be data on visibility over the target, an atmospheric transmittance or visibility, conveniently depending on the sensor used.
  • the reconnaissance data may be data on objects obscuring the target so that the target may not be recognizable.
  • a further embodiment of the invention provides that the reconnaissance data contain information about an environmental feature in the environment of the target. From this, as a detection support data, a relationship information, for example, a relative position of the destination to the environmental feature is advantageously determined.
  • the reconnaissance information may be a terrain and / or topography feature that is conveniently well visible, such as a tower, mast, hall, intersection, or the like. In this way, the target can be controlled even if its absolute position is unknown, as long as the relative position is known.
  • the missile may first be controlled using the reconnaissance information, eg, coordinates of a tower, and then guided into the target using the detection assist data, eg, the relative position of the target to the tower.
  • the detection support data may include a relative position and / or optical data, conveniently as viewed from a proximity of the environmental feature, such that the missile may be first applied to the environmental feature and then to the target.
  • the reconnaissance data include image information of an environment of the destination, and the detection support data includes a terrain model of an environment of the destination. Due to the terrain model, which is conveniently a topographical model or a radiation model, in two or three dimensions, the missile may receive additional information about the nature of the environment, conveniently relative to the target. Visibility of the target depending on the surrounding topography can be determined. It is also possible to detect from a radiation model that the target is first faded by another object, so that target detection is only possible if the object is optically separable from the target.
  • a particularly advantageous embodiment of the invention provides that the disclosure information contains image information of an environment of the destination, and the detection assistance data includes a synthetic image of the destination and / or an environment of the destination.
  • a missile parameter is suitably taken into account, such as an approach direction of the missile to the target or target area, an anticipated missile velocity, atmospheric information such as ambient brightness, atmospheric transparency, and / or the like, thereby providing a particularly suitable image is attainable for the capture of the goal.
  • the image represents the target and / or the target area from the point of view of the approaching missile.
  • the synthetic image is an image of the target from the direction and the distance of a maximum detection distance of the missile, wherein ambient and / or atmospheric parameters can be considered.
  • the synthetic image is created and expediently provided to the missile before it can detect the target, in particular before the target is visible to the approaching missile. In this way, the missile, or its seeker, adjust detection parameters depending on characteristics of the image, even before the target has been detected by the missile or is visible. If the missile reaches the maximum detection range, it may have already evaluated the synthetic image and set the detection parameters to quickly detect the target.
  • the reconnaissance data includes visibility on the approach route of the missile to the target.
  • the synthetic image is created in particular taking into account the visibility.
  • the vision may be a sensorial detection of the target according to the sensitivity of a sensor of the missile.
  • the reconnaissance data include a pre-image of the target created before the approach of the missile and the detection assistance data contain information on a relationship of the pre-image with the visual image of the target approaching the target
  • Missile offers a missile.
  • the pre-image may be a captured image or a synthetic image and is useful as a reference image.
  • the relationship can be a comparison and, in particular, contain information about how the preview image is compared to the visual image.
  • the comparison can be done by an image correlation method.
  • the relationship may include information about which direction to look at the target when the missile is approaching the target.
  • the pre-image is created taking into account a maximum possible detection distance so that the pre-image shows the target and / or an environment of the target from a view in which the missile can actually detect the target, e.g. the maximum possible detection distance.
  • the reliability of proper targeting can be further enhanced if the reconnaissance data includes information about a view of the target, and the detection assistance data provides information on which of several possible missile targeting methods is most appropriate. For example, among several different sensors of the missile for detecting the target can be selected and / or an image correlation method based on a pre-image can be selected.
  • Detection of a false target can be counteracted if the reconnaissance data includes information about a view of the target and the detection assistance data contains information as to whether the missile is sufficient can be easily brought to the target via its own sensors or whether it has to be guided to the target with the aid of another method and expediently to where, so that its own sensor system can detect the target. In this way, it is possible to prevent the missile from searching for a target which is not recognizable to it and to interrupt an operation or to select a wrong target. If it is decided that a foreign guidance is necessary, for example, with the aid of another missile, which is in the vicinity or above the target, it can be decided from when or at what distance the guidance of the missile with the help of its own sensors.
  • the reconnaissance data includes a plurality of target features of visual information of the target and the capture support data includes information as to which of the target features the intended target must have.
  • the optical information may be information about a target signature, such as radiation that emits the target, information about radiation outlines, for example, four people on a pickup appearing as four luminous spots in an infrared image, a contrast between ambient radiation and a vehicle a certain paint and the like.
  • the information may be recorded or modeled destination information. Using feature-based algorithms and / or probability analysis, the missile can determine the target from a set of interchangeable objects.
  • the invention is also directed to a missile homing system having a processing means that is prepared to assemble target data by means of which a missile is controllable to a target and to deliver it to the missile to drive to the target.
  • the processing means is also prepared to process and transmit reconnaissance data from a reconnaissance sensor to detection assistance data including information for detecting the target beyond the target data, and in particular to control the missile using the detection assistance data to the destination.
  • the process agent is also suitably prepared to perform one, several or all of the previously mentioned process steps.
  • the process means comprises a ground-based first process unit and a second process unit in the missile, wherein the first Process unit is prepared to process the reconnaissance data to detection assistance data and the second processing unit is prepared to control the missile on the target using the detection support data.
  • the second processing unit may generate flight control data and in particular data for a process unit of a seeker head of the missile for detecting the target.
  • Fig. 1 shows a landscape with mountains 2 and two valleys 4, 6 separated by a mountain saddle 8. Above the saddle 8 and the second valley 6 hangs a low-lying cloud 10, which obscures the view from the saddle 8 or from above to a target area 12.
  • a village 14 In the target area 12 is a village 14 and a plurality of objects 16, 18, 20 to be controlled, one of which has been selected as the target 20 to be fought by a missile 22.
  • the missile 22 is to be launched from a carrier platform 24, which in this embodiment is a ground-based carrier platform 24. In alternative embodiments, a sea-bound or flying support platform is possible.
  • the support platform 24 is technically connected to a missile guidance system 26, which comprises a ground-based process unit in the form of a data processing system in a building, and which may be part of a guidance system or weapons deployment system.
  • the Missile Injection System 26 is in turn data-technically connected to the missile 22 so that it can transmit data to it prior to take-off from the carrier platform 24 and during the approach to the target 20.
  • a reconnaissance sensor 28 in a reconnaissance unit which in the illustrated embodiment is an aircraft that flies in the vicinity of the target area 12.
  • the target area 12 Before the launch of the missile 22, the target area 12 is informed by the reconnaissance unit and reconnaissance data resulting from the reconnaissance are transmitted to the missile guidance system 26.
  • the reconnaissance data in this embodiment include several aerial photographs of the target area 12 as well as information about the cloud cover 10, its thickness and position, in particular its lower edge.
  • the target 20 is selected.
  • the further objects 16, 18, the village 14 and in particular a landmark 30 are identified as such.
  • acquisition assistance data is developed by the missile registration system 26 used to instruct the missile 22 to target.
  • the acquisition support data may include some or all of the data described below.
  • An approach route 34 is calculated from the topography of the two valleys 4, 6 and the mountain saddle 8 located therebetween and a hill 32 in front of the destination area 12. This may not be too shallow, since the missile 22, or its seeker, the target 20 can detect optically only after flying over the hill 32. Since the distance from the hill 32 to the target 20 is too small to be able to determine its exact location due to detection of the movable target 20, the missile 22 must fly so that it has enough time to detect the correct target 20 and Distinguishing the target 20 from the objects 16, 18 is available. Thus, as part of the detection support data, the approach route 34 is determined to be directed toward the target 20 from above, so that the destination 20 can be sufficiently detected before being reached as such. Since the approach route 34 is an integral part of a reliable detection of the target 20, it belongs to the detection support data.
  • An approach route 34 directed from above onto the destination 20 requires that the missile 22 must fly through the cloud 10 in which the view of the destination 20 is blocked. It is therefore established as further detection support data, how long the missile 22 is controlled on its approach route 34 with extraneous information, for example, with target coordinates and / or the coordinates of the approach route 34, and from when he can use his own sensors for flight control or target detection. Thus, it is defined as acquisition support data that the missile 22 is only controlled with the help of its own sensors when it has exited the cloud 10, ie has passed its lower edge from above, as in FIG Fig. 1 is indicated. Since the approach route 34 and the position of the cloud 10 and its lower edge is known, the exit point of the missile 22 from the cloud 10 is known. Thus, a control mode change point is set, in which a control mode of the missile 22 is switched from a first mode to a second mode, in this embodiment, from a coordinate control to a visual control.
  • the missile instruction system 26 creates a synthetic image of the target area 12 as detection assistance data.
  • This synthetic image is created from the aerial photographs of the target area 12 of the reconnaissance sensor 28 and is transmitted to the missile 22 before it has sight of the target 20, ie before it is even able to detect the target 20.
  • the synthetic image is transferred to the missile 22 before it starts from the carrier platform 24.
  • the synthetic image of the target area 12 represents the target area 12 or a part thereof from the point of view of the approaching missile at the location from which the missile 22 can first detect the target 20. In the embodiment of Fig. 1 this is the point where the approach route 34 passes down the cloud deck 10.
  • the synthetic image includes, in particular, the landmark 30 and the target 20 designated as such, as well as the further objects 16, 18 that are subject to confusion for better discrimination from the target 20. Further objects, for example the village 14 or other landscape features, may be included in the synthetic image.
  • the missile 22 or its process unit can compare an image taken of the missile 22 image of the target area 12 with the synthetic image and, for example, in this way important in the synthetic image marked objects 16, 18, 20, 30 find in a simple manner in the captured real image and identify.
  • the detection assistance data includes information about a detection performance of the target 20.
  • this information implies that at the time the missile 22 first has a clear view of the target 20, detection of the target 20 using optical sensors of the target Missile 22 is possible only with a low quality, since the target 20 is relatively well camouflaged against the background and a distinction is possible only with insufficient reliability. Therefore, the detection support data further recognizes that although the flight control is visual, it is not oriented to the target 20 but to another point, such as the landmark 30. Thus, in an optically controlled flight phase, the flight control will be oriented at that point until one in the detection support data specified detection quality is sufficiently high, for example, over a predetermined quality value.
  • the distance or point on the approach route 34, from which the coverage quality is sufficiently good, is also included in the detection assistance data. From this moment, a further and thus later phase or mode of flight control can begin, from which the visual orientation on the target 20 controls the flight of the missile 22.
  • the direction and distance information between landmark 30 and target 20 can be given as an approximation, so that the missile 22 must target the target 20 as directly as possible and not first the landmark 30 and the target 20.
  • the acquisition support data may also include a number of features of the target 20 characterizing the target 20.
  • the features include visual features, which may be understood to include features that are recognizable only in the infrared or in another spectral range.
  • the features include, among other things, that the target 20 from the viewpoint of the approaching missile 22 along the approach route 34 has an extension of about 3 m x 6 m, the target has a dark green to ocher URL color design and stands against a light brown background. The background is from above the sandy or loamy soil on which the target 20 stands.
  • the missile 22 For measuring individual objects, such as the houses and vehicles, the missile 22 is provided with a scale as detection assistance data.
  • the scale may consist in an optical detail easily recognizable by the missile 22 in the target area 12, for example a house whose dimensions are indicated in the detection support data. By comparing the Objects with the optical detail, the missile 22 can easily determine the dimensions of the objects.
  • the missile 22 may distinguish the target 20 from, for example, houses of the village 14. It can not distinguish the target 20 from the objects 16, 18.
  • the detection support data includes relationship information about at least one surrounding point, in this case, the landmark 30.
  • the detection assistance data in this case include the distance 36 and the direction of the target 20 to the landmark 30, the direction being given as a geographical direction or as a direction to another landmark, so that triangulation is possible. From this information, the missile 22 can distinguish the target 20 from the other two objects 16, 18 which are at a different distance and direction from the landmark 30.
  • the target 20 is at the time of approach of the missile 22 in the vicinity of a vehicle 38, which is not included in the reconnaissance by the reconnaissance sensor 28, since it has retracted recently in the target area 12.
  • the vehicle 38 stops near the target 20 has approximately the same dimensions and suitcases on the roof of a similar color and piebald structure.
  • the infrared signature is approximately equal to the target 20.
  • the detection assistance data includes the information that the target 20 is positioned in front of a light brown background.
  • the vehicle 38 travels on a medium gray road so that the background feature on the vehicle 38 does not apply.
  • the feature of the background may be deposited as a binding feature in the detection support data without the target 20 not being identified or combated as such. Since the target 20 fulfills all visual features, it can be recognized by the vehicle 38 through this visual feature and thus identified as a target 20.
  • a direction of travel and travel speed of the target 20 are used, so that from a reconnaissance time and a target detection time by the missile 22 of the direction of travel and travel speed a current location is calculated, at which the target 20 can be positioned assuming the enlightened direction and speed would.
  • tolerance information may be part of the detection support data, eg, allowable positional inaccuracy, color inaccuracy, inaccuracy in size, radiation signature inaccuracy, or the like.
  • a terrain model as a three-dimensional model is also advantageous, which is made available to the missile 22 before a first possible detection time. From this three-dimensional terrain model, the missile 22 can transform the view of the target area 12 from any perspective into a two-dimensional theoretical vision image that facilitates location of the objects of interest 16, 18, 20, 30 that are conveniently marked as such in the three-dimensional terrain model. It is also possible that the three-dimensional terrain model is used by the missile guidance system 26 to create the synthetic and especially two-dimensional image that simulates the missile 22's view of the target area from its approach route 34. By means of an advance image, for example the synthetic image and / or the three-dimensional terrain model, the missile 22 can easily find objects 16, 18, 20, 30 of interest by image correlation with an image of the target area 12 taken by the missile 22.
  • the missile 22 is informed of a detection method among several possible detection methods with which it should detect the target 20.
  • a visual detection method directed at the landmark 30 is specified in a former flight phase.
  • a detection method is specified in which the target 20 is detected by means of an infrared sensor in order to be able to distinguish it from similar rocks surrounding the target 20.
  • a third and later flight phase is characterized in that the detection method again takes place in the visible frequency range in order to be able to detect and check the visual characteristics of the target color and the background color.
  • the detection support data comprises a plurality of recognition methods that are used in succession or simultaneously and with which the missile 22 is to detect the target 20.
  • the detection support data includes at least one location point from which to change a detection method.
  • Fig. 2 2 shows a flow diagram of a method for instructing the missile 22 on the target 20.
  • a first database that contains the knowledge base of a guidance system, for example an insert situation image
  • superordinate position information 40 is retrieved and transferred to a process unit 42 of the missile guidance system 26.
  • reconnaissance data 44 are retrieved, for example via the application area, the target area 12 contained therein and / or features of the destination 20.
  • the superordinate knowledge base from the database 40 can also contain reconnaissance data here ,
  • target data 46 is generated by the missile homing system 26 or other system, such as the coordinates of the target area 12 and, if applicable, the target 20 transmitted to the missile 22 before or after launch from the carrier platform 24. On the basis of this data, the missile 22 can be started and guided in the direction of the target area.
  • detection support data 48 is also generated by the process unit 42 of the missile instruction system 26. These can - depending on the data - the missile 22 also be handed over after its launch, since they support the later capture later.
  • missile information 50 will also be included via the missile 22. This missile information 50 conveniently contains information about the type of missile 22 and its sensors, its process unit and its capabilities, about the seeker head and its optics, about the warhead of the missile 22 and its uses and the like.
  • the derived detection support data 48 which may include target features, a target behavior, a target position, a target context, a steering strategy for the missile 22, and / or detection conditions, are provided to another process unit 52 that is part of the missile 22.
  • the ground-based process unit 42 and the process unit 52 of the missile 22 in this case form a processing means of the missile homing system 26.
  • the reconnaissance data 44 it is also possible for the reconnaissance data 44 to be transferred to the missile 22 and the process unit 48 of the missile 22 to derive therefrom detection assist data 48 according to which the missile 22 detects the target 20.
  • acquisition support data 48 directly to the Missiles 22 are transferred together with reconnaissance data from which the missile 22 further detection assistance data 48 generated and the target detection and / or missile control from the entirety of the detection support data 48 takes place.
  • the process unit 52 Based on the detection support data 48, the process unit 52 performs the control 54 of the missile 22.
  • the controller 54 may include the control of actuators for steering the missile 22, actuators for controlling the seeker head, further actuators for triggering a warhead, the control of a triggering mode of the warhead and / or the selection of a detection mode for detecting the target 20 and others control actions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung geht aus von einem Verfahren zum Einweisung eines Flugkörpers (22) auf ein Ziel (20), bei dem Zieldaten (46), anhand derer der Flugkörper (22) auf das Ziel (20) steuerbar ist, zusammengestellt und an den Flugkörper (22) zur Ansteuerung auf das Ziel (20) gegeben werden.
Um zu ermöglichen, dass der Flugkörper (22) das Ziel (20) auch bei widrigen Umständen zuverlässig auffassen kann, wird vorgeschlagen, dass Aufklärungsdaten (44) aus einem Aufklärungssensor (28) durch ein Flugkörpereinweisungssystem (26) zu Erfassungsunterstützungsdaten (48), die über die Zieldaten (46) hinausgehende Informationen zur Erfassung des Ziels (20) enthalten, verarbeitet und an den Flugkörper (22) gegeben werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Einweisung eines Flugkörpers auf ein Ziel, bei dem Zieldaten, anhand derer der Flugkörper auf das Ziel steuerbar ist, zusammengestellt und an den Flugkörper zur Ansteuerung auf das Ziel gegeben werden.
  • Zur Bekämpfung von Bodenzielen werden die Koordinaten des Ziels oder andere das Ziel beschreibende Zieldaten, wie das Ziel optisch beschreibende Daten, zusammengestellt und an den Flugkörper, der das Ziel bekämpfen soll, übergeben. Anhand solcher Zieldaten erfasst der Flugkörper bzw. dessen Suchkopf das Ziel während des Anflugs auf das Ziel und ist hierdurch auf das Ziel eingewiesen.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Einweisen eines Flugkörpers auf ein Ziel anzugeben, mit dem das Ziel, insbesondere bei widrigen Umständen, durch den Flugkörper zuverlässig erfasst werden kann.
  • Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem erfindungsgemäß Aufklärungsdaten aus einem Aufklärungssensor durch ein Flugkörpereinweisungssystem zu Erfassungsunterstützungsdaten, die über die Zieldaten hinausgehende Informationen zur Erfassung des Ziels enthalten, verarbeitet und an den Flugkörper gegeben werden.
  • Die Erfindung geht von der Überlegung aus, dass bei einer Bekämpfung eines Ziels unter Verwendung von Zieldaten allein, wie Zielkoordinaten, unter Umständen Kollateralschäden nicht zuverlässig genug vermieden werden können. Durch eine Erfassung des Ziels als solches durch den Flugkörper während des Anflugs, z.B. eine optische Erfassung, kann ein Kollateralschadensrisiko verringert werden. Ist jedoch eine Erfassung des Ziels mit Schwierigkeiten verbunden, insbesondere wenn die Sicht auf das Ziel beeinträchtigt ist, kann es durch eine Erfassung falscher Ziele ebenfalls zu Kollateralschäden kommen.
  • Die Erfassung des Ziels kann zuverlässiger gemacht werden, wenn dem Flugkörper zusätzlich zu den Zieldaten weitere Informationen mitgegeben werden, die eine Zielerfassung unterstützen. Solche Erfassungsunterstützungsdaten können beinhalten, auf welche Art und Weise das Ziel zum Zeitpunkt des Anflugs des Flugkörpers auf das Ziel erkannt werden kann, beispielsweise mit welcher Art Sensor, in welchem Spektrum und/oder anhand welcher optischer Merkmale. Die Erfassungsunterstützungsdaten können auch Information darüber beinhalten, wie gut das Ziel zu erkennen ist. Ist das Ziel beispielsweise wegen atmosphärischer Trübungen erst sehr spät zu erkennen, so kann einer Koordinaten gestützten Einweisung eine hohe Gewichtung gegeben werden, ohne dass das Ziel zunächst als solches erfasst wird. Auf diese Weise kann verhindert werden, dass bereits aus einer Entfernung, der in der das Ziel aufgrund schlechter Sichtverhältnisse noch nicht zu erkennen ist, mit Hilfe eines optischen Sensors das Ziel gesucht, nicht erfasst und anstelle dessen ein anderer und optisch markanterer Gegenstand erfasst und irrtümlicherweise für das Ziel gehalten wird, da das Prozessmittel des Flugkörpers davon ausgeht, dass das Ziel bereits erkannt werden kann. Somit kann der Flugkörper anhand der Erfassungsunterstützungsdaten zuverlässig auf das Ziel eingewiesen werden.
  • Der Flugkörper kann ein Lenkflugkörper sein mit oder ohne eigenen Antrieb. Er umfasst zweckmäßigerweise einen Suchkopf mit einem Sensor zum Erfassen von Zieleigenschaften, beispielsweise einen optischen Sensor. Die Zieldaten sind Daten, anhand derer der Flugkörper auf das Ziel zu steuerbar ist. Sie können Zielkoordinaten sein, Koordinaten eines Zielgebiets und/oder das Ziel in so weit bestimmende Daten, so dass das Ziel als solches durch die Zieldaten, erfasst werden kann. Der Flugkörper ist zweckmäßigerweise mit einer Prozesseinheit ausgestattet, die dazu vorbereitet ist, den Flugkörper anhand der Zieldaten in das Ziel zu steuern, insbesondere das Ziel anhand der Zieldaten zu erfassen. Die Erfassung kann auf optischem Wege erfolgen, sodass das Ziel als solches erkannt wird, wobei die Verwendung jeder geeigneten Frequenz, beispielsweise im Visuellen, im Infraroten oder im Radarbereich, möglich ist.
  • Der Aufklärungssensor kann jeder geeignete Sensor sein. Zweckmäßigerweise ist er Teil eines Aufklärungsnetzwerks aus einer Vielzahl von insbesondere unterschiedlichen Aufklärungssensoren. Die Aufklärungsdaten sind zweckmäßigerweise Daten über das Ziel und/oder das Zielgebiet. Sie können durch das Flugkörpereinweisungssystem aus einer Datenbank abgerufen werden und beschreiben das Ziel bzw. das Zielgebiet zweckmäßigerweise zu einem vergangenen Zeitpunkt, sodass sie als Archiv-Informationen bezeichnet werden können. Die Aufklärungsdaten stehen zweckmäßigerweise einer Vielzahl von Abrufempfängern zur Verfügung, beispielsweise mehreren Flugkörpern oder Flugkörpereinweisungssystemen.
  • Zumindest Teile des Flugkörpereinweisungssystems befinden sich zweckmäßigerweise außerhalb des Flugkörpers und sind vorteilhafterweise in Bezug auf ihren Ort unabhängig vom Flugkörper. Das gleiche gilt zweckmäßigerweise für den Aufklärungssensor. Das Flugkörpereinweisungssystem kann eine bodengebundene Prozesseinheit umfassen, die über eine Datenfernübertragung mit dem Flugkörper verbunden ist. Die Erfassungsunterstützungsdaten werden zweckmäßigerweise an den Flugkörper ausgegeben, bevor der Flugkörpersensor Kontakt mit dem Ziel hat.
  • Die Verarbeitung der Aufklärungsdaten A zur Erfassungsunterstützungsdaten E kann mit Hilfe einer geeigneten Funktion F erfolgen, wobei gelten kann: E = F (A, W), wobei W weitere Informationen sein können, z. B. Flugkörperdaten, wie Art des Flugkörpers, seine Steuerfähigkeit, die Art des Suchkopfes, die Art des Gefechtskopfs, usw. Es ist möglich, dass W = 0 und/oder F = 1, sodass die Aufklärungsdaten direkt als Erfassungsunterstützungsdaten verwendet werden. Der Flugkörper kann in Abhängigkeit der Erfassungsunterstützungsdaten, also unter Verwendung der Erfassungsunterstützungsdaten, auf das Ziel gesteuert werden, sodass die Erfassungsunterstützungsdaten direkt oder indirekt als Steuerinformation zur Steuerung des Flugkörpers verwendet werden können. Vorteilhafterweise wird der Flugkörper unter Verwendung der Erfassungsunterstützungsdaten auf das Ziel gesteuert bevor der Flugkörper das Ziel erfasst.
  • In einer vorteilhaften Ausführungsform der Erfindung enthalten die Aufklärungsdaten Informationen zu einer Erkennbarkeit des Ziels. Solche Informationen können Daten zu Sichtverhältnissen über dem Ziel sein, ein atmosphärischer Transmissionsgrad oder eine Sichtweite, zweckmäßigerweise in Abhängigkeit des verwendeten Sensors. Weiter können die Aufklärungsdaten Daten zu Objekten sein, die das Ziel verdecken, so dass das Ziel unter Umständen nicht erkennbar ist.
  • Vorteilhafterweise enthalten die Erfassungsunterstützungsdaten Informationen über aktuelle Bedingungen einer Erfassung des Ziels. Solche Bedingungen können sein:
    • eine Erfassungsreichweite, aus der das Ziel in Abhängigkeit von den Aufklärungsdaten mit Bordmitteln des Flugkörpers noch erfassbar ist, und die insbesondere abhängig von der verwendeten Wellenlänge und/oder der Zielsignatur ist,
    • eine voraussichtliche Güte einer Erfassung in Abhängigkeit von den Aufklärungsdaten; die Güte kann ein Zuverlässigkeitsgrad für eine fehlerfreie Erfassung sein; sie ist zweckmäßigerweise abhängig von einer Erfassungsentfernung, z.B. der Erfassungsreichweite, und/oder
    • Daten zu einer Sichtbarkeit des Ziels in Abhängigkeit einer Anflugrichtung, einer Erfassungswellenlänge, insbesondere aus Sicht des anfliegenden Flugkörpers, einem Erfassungsverfahren und/oder einem Erfassungssensor.
  • Eine weitere Ausführungsform der Erfindung sieht vor, dass die Aufklärungsdaten Informationen zu einem Umgebungsmerkmal in der Umgebung des Ziels enthalten. Hieraus wird als Erfassungsunterstützungsdaten vorteilhafterweise eine Beziehungsinformation, beispielsweise eine Relativposition des Ziels zum Umgebungsmerkmal, bestimmt. Die Aufklärungsinformation kann ein Gelände-und/oder Topografiemerkmal sein, das zweckmäßigerweise gut sichtbar ist, wie ein Turm, ein Mast, eine Halle, eine Kreuzung oder dergleichen. Auf diese Weise kann das Ziel auch dann angesteuert werden, wenn dessen Absolutposition unbekannt ist, so lange die Relativposition bekannt ist. Der Flugkörper kann zunächst unter Verwendung der Aufklärungsinformation, z.B. Koordinaten eines Turms, gesteuert und anschließend unter Verwendung der Erfassungsunterstützungsdaten, z.B. der Relativposition des Ziels zum Turm, in das Ziel geführt werden. Es ist auch möglich, zunächst die Aufklärungsinformation zu verwenden und danach die Erfassung des Ziels unter Verwendung der Erfassungsunterstützungsdaten durchzuführen. Diese Zielerkennung ist sehr zuverlässig, da der Flugkörper sehr nah an das Ziel herangeführt werden kann und dieses dann unter Verwendung der Erfassungsunterstützungsdaten gezielt suchen kann. Die Erfassungsunterstützungsdaten können eine Relativposition und/oder optische Daten, zweckmäßigerweise aus Sicht aus einer Nähe des Umgebungsmerkmals enthalten, sodass der Flugkörper zunächst auf das Umgebungsmerkmal und dann auf das Ziel zugeführt werden kann. Außerdem ist es möglich, den Zielbereich anhand der Aufklärungsinformation einzugrenzen, sodass die Gefahr einer Falschzielerkennung reduziert wird.
  • Weiter wird vorgeschlagen, dass die Aufklärungsdaten Bildinformationen einer Umgebung des Ziels enthalten und die Erfassungsunterstützungsdaten ein Geländemodell einer Umgebung des Ziels. Durch das Geländemodell, das zweckmäßigerweise ein topografisches Modell oder ein Strahlungsmodell ist, in zwei oder drei Dimensionen, kann der Flugkörper Zusatzinformationen über die Art der Umgebung, zweckmäßigerweise relativ zum Ziel erhalten. Es kann eine Sichtbarkeit des Ziels in Abhängigkeit der umliegenden Topografie ermittelt werden. Ebenfalls ist es möglich, aus einem Strahlungsmodell zu erfassen, dass das Ziel zunächst durch einen anderen Gegenstand überblendet wird, sodass eine Zielerfassung erst dann möglich ist, wenn der Gegenstand von dem Ziel optisch trennbar ist.
  • Eine besonders vorteilhafte Ausführungsform der Erfindung sieht vor, dass die Ausklärungsinformationen Bildinformationen einer Umgebung des Ziels enthalten und die Erfassungsunterstützungsdaten ein synthetisches Bild des Ziels und/oder einer Umgebung des Ziels. Bei der Berechnung des synthetischen Bilds wird zweckmäßigerweise ein Flugkörperparameter berücksichtigt, wie eine Anflugrichtung des Flugkörpers auf das Ziel oder das Zielgebiet, eine voraussichtliche Geschwindigkeit des Flugkörpers, atmosphärische Informationen, wie eine Umgebungshelligkeit, eine atmosphärische Transparenz und/oder dergleichen, wodurch ein besonders geeignetes Bild für die Erfassung des Ziels erreichbar ist.
  • Vorteilhafterweise stellt das Bild das Ziel und/oder das Zielgebiet aus der Sicht des anfliegenden Flugkörpers dar. Weiter ist es vorteilhaft, wenn das synthetische Bild ein Bild auf das Ziel aus der Richtung und dem Abstand einer maximalen Erfassungsentfernung des Flugkörpers ist, wobei Umgebungs- und/oder Atmosphärenparameter berücksichtigt werden können. Das synthetische Bild wird erstellt und zweckmäßigerweise dem Flugkörper zur Verfügung gestellt bevor dieser das Ziel erfassen kann, insbesondere bevor das Ziel für den anfliegenden Flugkörper sichtbar ist. Auf diese Weise kann der Flugkörper, bzw. dessen Suchkopf, Detektionsparameter in Abhängigkeit von Eigenschaften des Bilds einstellen, bereits bevor das Ziel durch den Flugkörper erfasst wurde bzw. sichtbar ist. Erreicht der Flugkörper die maximale Erfassungsreichweite, so kann er bereits das synthetische Bild ausgewertet und die Detektionsparameter so eingestellt haben, dass er das Ziel schnell erkennt.
  • Ebenfalls ist es möglich, mit Hilfe einer Bildkorrelation ein innerhalb der Erfassungsreichweite vom Flugkörper aufgenommenes Bild der Umgebung des Ziels mit dem synthetischen Bild zu korrelieren, sodass das Ziel, das im Bild anhand von Daten oder optischen Parametern hervorgehoben sein kann, schnell und zuverlässig erkannt wird.
  • Zweckmäßigerweise beinhalten die Aufklärungsdaten Sichtverhältnisse auf der Anflugroute des Flugkörpers auf das Ziel. Hierbei wird das synthetische Bild insbesondere unter Berücksichtigung der Sichtverhältnisse erstellt. Die Sicht kann eine sensorielle Erfassung des Ziels entsprechend der Empfindlichkeit eines Sensors des Flugkörpers sein.
  • In einer weiteren vorteilhaften Ausgestaltung der Erfindung wird vorgeschlagen, dass die Aufklärungsdaten ein vor dem Anflug des Flugkörpers auf das Ziel erstelltes Vorabbild des Ziels enthalten und die Erfassungsunterstützungsdaten Informationen zu einer Beziehung des Vorabbilds mit dem Sichtbild des Ziels enthalten, das sich dem auf das Ziel anfliegenden Flugkörpers ein Flugkörper bietet. Das Vorabbild kann ein aufgenommenes Bild oder ein synthetisches Bild sein und dient zweckmäßigerweise als Referenzbild. Die Beziehung kann ein Vergleich sein und insbesondere Informationen darüber enthalten, wie das Vorabbild mit dem Sichtbild verglichen werden söll. Der Vergleich kann durch ein Bildkorrelationsverfahren erfolgen. Die Beziehung kann Informationen darüber enthalten, aus welcher Richtung auf das Ziel geschaut wird wenn der Flugkörper auf das Ziel zufliegt. Vorteilhafterweise wird das Vorabbild unter Berücksichtigung einer maximal möglichen Erfassungsentfernung erstellt, sodass das Vorabbild das Ziel und/oder eine Umgebung des Ziels aus einer Sicht zeigt, in der der Flugkörper das Ziel tatsächlich erfassen kann, z.B. der maximal möglichen Erfassungsentfernung.
  • Die Zuverlässigkeit einer richtigen Zielerfassung kann weiter erhöht werden, wenn die Aufklärungsdaten Informationen zu einer Sicht auf das Ziel enthalten und die Erfassungsunterstützungsdaten Informationen darüber, welches unter mehreren möglichen Zielerfassungsverfahren des Flugkörpers das am Besten geeignete ist. So kann beispielsweise unter mehreren verschiedenen Sensoren des Flugkörpers zum Erfassen des Ziels ausgewählt werden und/oder ein Bildkorrelationsverfahren anhand eines Vorabbilds ausgewählt werden.
  • Einer Erfassung eines falschen Ziels kann entgegengewirkt werden, wenn die Aufklärungsdaten Informationen zu einer Sicht auf das Ziel enthalten und die Erfassungsunterstützungsdaten Informationen darüber, ob der Flugkörper ausreichend gut über eigene Sensorik an das Ziel heranführbar ist oder ob er mit Hilfe eines anderen Verfahrens auf das Ziel hingeführt werden muss und zweckmäßigerweise bis wohin, sodass seine eigene Sensorik das Ziel erfassen kann. Auf diese Weise kann verhindert werden, dass der Flugkörper ein für ihn nicht erkennbares Ziel sucht und eine Operation abgebrochen werden muss oder er ein falsches Ziel auswählt. Wird entschieden, dass eine Fremdführung notwendig ist, beispielsweise mit Hilfe eines weiteren Flugkörpers, der sich in der Nähe oder über dem Ziel aufhält, kann entschieden werden, ab wann bzw. ab welcher Entfernung die Führung des Flugkörpers mit Hilfe eigener Sensorik erfolgen soll.
  • Ebenfalls ist es vorteilhaft, wenn die Aufklärungsdaten mehrere Zielmerkmale aus optischen Informationen des Ziels enthalten und die Erfassungsunterstützungsdaten Informationen enthalten, welche der Zielmerkmale das aufgefasste Ziel aufweisen muss. Einer Verwechslung des Ziels mit einem ähnlichen Gegenstand kann so entgegengewirkt werden. Die optischen Informationen können Informationen zu einer Zielsignatur sein, beispielsweise einer Strahlung, die das Ziel aussendet, Information zu Strahlungsumrissen, beispielsweise vier Personen auf einem Pick-up, die als vier leuchtende Punkte in einem Infrarotbild erscheinen, ein Kontrast zwischen Umgebungsstrahlung und einem Fahrzeug mit einem bestimmten Lack und dergleichen. Die Informationen können aufgenommene oder mit Hilfe eines Modells ermittelte Zielinformationen sein. Mit Hilfe merkmalsbasierter Algorithmen und/oder Wahrscheinlichkeitsanalyse kann der Flugkörper das Ziel aus einer Menge verwechselbarer Gegenstände ermitteln.
  • Die Erfindung ist außerdem gerichtet auf ein Flugkörpereinweisungssystem mit einem Prozessmittel, dass dazu vorbereitet ist, Zieldaten, anhand derer ein Flugkörper auf ein Ziel steuerbar ist, zusammenzustellen und an den Flugkörper zur Ansteuerung auf das Ziel zu übergeben. Erfindungsgemäß ist das Prozessmittel ebenfalls dazu vorbereitet, Aufklärungsdaten aus einem Aufklärungssensor zu Erfassungsunterstützungsdaten, die über die Zieldaten hinausgehende Informationen zur Erfassung des Ziels enthalten, zu verarbeiten und an den Flugkörper zu übergeben und insbesondere den Flugkörper unter Verwendung der Erfassungsunterstützungsdaten auf das Ziel hin zu steuern. Das Prozessmittel ist außerdem zweckmäßigerweise dazu vorbereitet, einen, mehrere oder alle der bisher genannten Verfahrensschritte durchzuführen.
  • Vorteilhafterweise umfasst das Prozessmittel eine bodengebundene erste Prozesseinheit und eine zweite Prozesseinheit im Flugkörper, wobei die erste Prozesseinheit dazu vorbereitet ist, die Aufklärungsdaten zu Erfassungsunterstützungsdaten zu verarbeiten und die zweite Prozesseinheit dazu vorbereitet ist, den Flugkörper unter Verwendung der Erfassungsunterstützungsdaten auf das Ziel hin zu steuern. Die zweite Prozesseinheit kann Flugsteuerdaten und insbesondere Daten für eine Prozesseinheit eines Suchkopfs des Flugkörpers zum Erfassen des Ziels erzeugen.
  • Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung, in der Ausführungsbeispiele der Erfindung dargestellt sind. Die Zeichnung und die Beschreibung enthalten zahlreiche Merkmale in Kombination, die der Fachmann zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen wird.
  • Es zeigen:
  • Fig. 1
    Eine Landschaft mit einem Zielgebiet mit mehreren Objekten, von denen eines durch einen Flugkörper bekämpft werden soll und
    Fig. 2
    ein Ablaufdiagramm eines Verfahrens zum Einweisen eines Flugkörpers auf ein Ziel.
  • Fig. 1 zeigt eine Landschaft mit Bergen 2 und zwei Tälern 4, 6 die durch einen Bergsattel 8 voneinander getrennt sind. Über dem Bergsattel 8 und dem zweiten Tal 6 hängt eine tief liegende Wolke 10, die die Sicht vom Bergsattel 8 oder von darüber auf ein Zielgebiet 12 verdeckt. In dem Zielgebiet 12 befindet sich ein Dorf 14 und mehrere zu bekämpfende Objekte 16, 18, 20 von denen eines als Ziel 20 ausgewählt wurde, das durch einen Flugkörper 22 bekämpft werden soll. Der Flugkörper 22 soll aus einer Trägerplattform 24 gestartet werden, die in diesem Ausführungsbeispiel eine bodengebundene Trägerplattform 24 ist. In alternativen Ausführungsbeispielen ist auch eine seegebundene oder fliegende Trägerplattform möglich.
  • Der Flugkörper 22, der ein Lenkflugkörper mit einem eigenen Antrieb ist, soll aus dem ersten Tal 4 über den Bergsattel 8 in das Zielgebiet 12 fliegen und auf das Ziel 20 eingewiesen werden. Hierzu ist die Trägerplattform 24 signaltechnisch mit einem Flugkörpereinweisungssystem 26 verbunden, das eine bodengebundene Prozesseinheit in Form einer Datenverarbeitungsanlage in einem Gebäude umfasst, und das Teil eines Führungssystem oder Waffeneinsatzsystems sein kann. Das Flugkörpereinweisungssystem 26 ist wiederum datentechnisch mit dem Flugkörper 22 verbunden, sodass es ihm vor dem Start aus der Trägerplattform 24 und während des Anflugs auf das Ziel 20 Erfassungsunterstützungsdaten übermitteln kann. Ebenfalls mit dem Flugkörpereinweisungssystem 26 datentechnisch verbunden ist ein Aufklärungssensor 28 in einer Aufklärungseinheit, die im dargestellten Ausführungsbeispiel ein Flugzeug ist, das in der Nähe des Zielgebiets 12 fliegt.
  • Vor dem Start des Flugkörpers 22 wird das Zielgebiet 12 durch die Aufklärungseinheit aufgeklärt und aus der Aufklärung resultierende Aufklärungsdaten werden an das Flugkörpereinweisungssystem 26 übermittelt. Die Aufklärungsdaten beinhalten in diesem Ausführungsbeispiel mehrere Luftaufnahmen des Zielgebiets 12 sowie Informationen über die Wolkendecke 10, deren Dicke und Lage, insbesondere von deren Unterkante.
  • Mit Hilfe von Aufklärungsdaten oder anderen Daten wird das Ziel 20 ausgewählt. Außerdem werden die weiteren Objekte 16, 18, das Dorf 14 und insbesondere eine Landmarke 30 als solche identifiziert. Aus diesen Aufklärungsdaten werden Erfassungsunterstützungsdaten durch das Flugkörpereinweisungssystem 26 erarbeitet, die zur Einweisung des Flugkörpers 22 auf das Ziel verwendet werden. Die Erfassungsunterstützungsdaten können einige oder alle der im Folgenden beschriebenen Daten umfassen.
  • Aus der Topografie der beiden Täler 4, 6 und dem dazwischen liegenden Bergsattel 8 und einem Hügel 32 vor dem Zielgebiet 12 wird eine Anflugroute 34 berechnet. Diese darf nicht zu flach sein, da der Flugkörper 22, bzw. dessen Suchkopf, das Ziel 20 erst nach Überfliegen des Hügels 32 optisch erfassen kann. Da die Strecke vom Hügel 32 bis zum Ziel 20 zu klein ist, um aufgrund einer Erfassung des beweglichen Ziels 20 seinen genauen Standort bestimmen zu können, muss der Flugkörper 22 so fliegen, dass ihm eine ausreichend große Zeitspanne zum Erfassen des richtigen Ziels 20 und zur Unterscheidung des Ziels 20 von den Objekten 16, 18 zur Verfügung steht. Also wird als Teil der Erfassungsunterstützungsdaten die Anflugroute 34 so bestimmt, dass sie von oben auf das Ziel 20 gerichtet ist, sodass das Ziel 20 ausreichend vor einem Erreichen als solches erkannt bzw. erfasst werden kann. Da die Anflugroute 34 ein wesentlicher Bestandteil einer zuverlässigen Erkennung bzw. Erfassung des Ziels 20 ist, gehört sie mit zu den Erfassungsunterstützungsdaten.
  • Eine von oben auf das Ziel 20 gerichtete Anflugroute 34 bedingt, dass der Flugkörper 22 durch die Wolke 10 fliegen muss, in der ihm die Sicht auf das Ziel 20 versperrt ist. Es wird daher als weitere Erfassungsunterstützungsdaten festgelegt, wie lange der Flugkörper 22 auf seiner Anflugroute 34 mit Fremdinformationen gesteuert wird, beispielsweise mit Zielkoordinaten und/oder den Koordinaten der Anflugroute 34, und ab wann er seine eigene Sensorik zur Flugsteuerung bzw. Zielerfassung einsetzen kann. So wird als Erfassungsunterstützungsdaten festgelegt, dass der Flugkörper 22 erst dann mit Hilfe eigener Sensorik gesteuert wird, wenn er aus der Wolke 10 ausgetreten ist, also ihre Unterkante von oben durchtreten hat, wie in Fig. 1 angedeutet ist. Da die Anflugroute 34 und die Lage der Wolke 10 und deren Unterkante bekannt ist, ist auch der Austrittspunkt des Flugkörpers 22 aus der Wolke 10 bekannt. Somit wird ein Steuermoduswechselpunkt festgelegt, bei dem ein Steuermodus des Flugkörpers 22 von einem ersten Modus auf einen zweiten Modus umgeschaltet wird, in diesem Ausführungsbeispiel von einer Koordinatensteuerung auf eine Sichtsteuerung.
  • Zum zuverlässigen Erfassen des Ziels 20 wird vom Flugkörpereinweisungssystem 26 ein synthetisches Bild des Zielgebiets 12 als Erfassungsunterstützungsdaten erstellt. Dieses synthetische Bild ist aus den Luftaufnahmen des Zielgebiets 12 des Aufklärungssensors 28 erstellt und wird dem Flugkörper 22 übermittelt, bevor dieser Sicht auf das Ziel 20 hat, also bevor dieser überhaupt in der Lage ist, das Ziel 20 zu erfassen. Zweckmäßigerweise wird das synthetische Bild dem Flugkörper 22 übergeben, bevor dieser von der Trägerplattform 24 startet. Das synthetische Bild des Zielgebiets 12 stellt das Zielgebiet 12 oder einen Teil davon aus Sicht des anfliegenden Flugkörpers an dem Ort dar, ab dem der Flugkörper 22 das Ziel 20 erstmals erfassen kann. Bei dem Ausführungsbeispiel aus Fig. 1 ist das der Punkt, an dem die Anflugroute 34 die Wolkendecke 10 nach unten durchtritt. Das synthetische Bild beinhaltet insbesondere die Landmarke 30 und das als solche gekennzeichnete Ziel 20 sowie die weiteren verwechslungsgefährdeten Objekte 16, 18 zur besseren Unterscheidung vom Ziel 20. Auch weitere Objekte, beispielsweise das Dorf 14 oder weitere Landschaftsmerkmale können in dem synthetischen Bild enthalten sein. Der Flugkörper 22 bzw. dessen Prozesseinheit kann ein aus dem Flugkörper 22 aufgenommenes Bild des Zielgebiets 12 mit dem synthetischen Bild vergleichen und beispielsweise auf diese Weise wichtige im synthetischen Bild markierte Objekte 16, 18, 20, 30 in einfacher Weise im aufgenommenen realen Bild wiederfinden und identifizieren.
  • Weiter enthält die Erfassungsunterstützungsdaten Informationen zu einer Erfassungsgüte des Ziels 20. In dem vorliegend beschriebenen Ausführungsbeispiel beinhaltet diese Information, dass zum Zeitpunkt, bei dem der Flugkörper 22 erstmals freie Sicht auf das Ziel 20 hat, eine Erfassung des Ziels 20 mit Hilfe von optischen Sensoren des Flugkörpers 22 nur mit einer geringen Güte möglich ist, da das Ziel 20 relativ gut vor dem Hintergrund getarnt ist und eine Unterscheidung nur mit einer unzureichenden Zuverlässigkeit möglich ist. Daher erkennen die Erfassungsunterstützungsdaten weiter, dass die Flugsteuerung zwar visuell erfolgt, jedoch nicht auf das Ziel 20 orientiert, sondern auf einen anderen Punkt, beispielsweise die Landmarke 30. In einer optisch gesteuerten Flugphase orientiert sich die Flugsteuerung daher an diesem Punkt so lange, bis eine in den Erfassungsunterstützungsdaten angegebene Erfassungsgüte ausreichend hoch ist, beispielsweise über einen vorgegebenen Gütewert. Die Entfernung oder den Punkt auf der Anflugroute 34, ab dem die Erfassungsgüte ausreichend gut ist, ist ebenfalls in den Erfassungsunterstützungsdaten enthalten. Ab diesem Moment kann eine weitere und somit spätere Phase bzw. Modus der Flugsteuerung beginnen, ab der die visuelle Orientierung auf das Ziel 20 den Flug des Flugkörpers 22 steuert. Zur Unterstützung der ersteren Phase kann die Richtungs- und Entfernungsinformation zwischen Landmarke 30 und Ziel 20 als Näherung gegeben werden, damit der Flugkörper 22 das Ziel 20 möglichst direkt und nicht erst die Landmarke 30 und das Ziel 20 ansteuern muss.
  • Die Erfassungsunterstützungsdaten können außerdem eine Anzahl von Merkmalen des Ziels 20, die das Ziel 20 charakterisieren, enthalten. Die Merkmale umfassen visuelle Merkmale, wobei hierunter auch nur im Infraroten oder einem anderen Spektralbereich erkennbare Merkmale verstanden werden können. Die Merkmale beinhalten unter anderem, dass das Ziel 20 aus Sicht des anfliegenden Flugkörpers 22 entlang der Anflugroute 34 eine Ausdehnung von etwa 3 m x 6 m hat, das Ziel eine von dunkelgrün bis ocker gescheckte Farbgestaltung hat und vor einem hellbraunen Hintergrund steht. Der Hintergrund ist aus der Sicht von oben der sandige bzw. lehmige Boden, auf dem das Ziel 20 steht.
  • Zur Vermessung von einzelnen Gegenständen, wie den Häusern und Fahrzeugen, wird dem Flugkörper 22 ein Maßstab als Erfassungsunterstützungsdaten zur Verfügung gestellt. Der Maßstab kann in einem vom Flugkörper 22 leicht erkennbaren optischen Detail im Zielgebiet 12 bestehen, beispielsweise ein Haus, dessen Maße in den Erfassungsunterstützungsdaten angegeben sind. Durch Vergleich der Gegenstände mit dem optischen Detail kann der Flugkörper 22 die Maße der Gegenstände einfach ermitteln.
  • Aus den visuellen Merkmalen kann der Flugkörper 22 das Ziel 20 von beispielsweise Häusern des Dorfs 14 unterscheiden. Nicht unterscheiden kann er das Ziel 20 von den Objekten 16, 18. Zur Unterscheidung des Ziels 20 von den gleich aussehenden Objekten 16, 18 vor dem gleichen Hintergrund umfassen die Erfassungsunterstützungsdaten Beziehungsinformationen zu zumindest einem Umgebungspunkt, in diesem Fall zweckmäßigerweise die Landmarke 30. Die Erfassungsunterstützungsdaten umfassen hierbei den Abstand 36 und die Richtung des Ziels 20 zur Landmarke 30, wobei die Richtung als geographische Richtung oder als eine Richtung zur einer weiteren Landmarke angegeben sein, sodass Triangulation möglich ist. Aus diesen Informationen kann der Flugkörper 22 das Ziel 20 von den beiden anderen Objekten 16, 18 unterscheiden, die in einer anderen Entfernung und Richtung zur Landmarke 30 stehen.
  • Allerdings hält sich das Ziel 20 zum Zeitpunkt des Anflugs des Flugkörpers 22 in der Nähe eines Fahrzeugs 38 auf, das in der Aufklärung durch den Aufklärungssensor 28 nicht enthalten ist, da es erst kürzlich in das Zielgebiet 12 eingefahren ist. Zufälligerweise hält sich das Fahrzeug 38 in der Nähe des Ziels 20 auf, hat in etwa die gleichen Maße und durch Koffer auf dem Dach eine gleiche farbliche und scheckige Struktur. Auch die Infrarotsignatur ist in etwa gleich zum Ziel 20. Zur Unterscheidung des Ziels 20 vom Fahrzeug 38 enthalten die Erfassungsunterstützungsdaten die Information, dass das Ziel 20 vor einem hellbraunen Untergrund positioniert ist. Demgegenüber fährt das Fahrzeug 38 auf einer mittelgrauen Straße, sodass das Hintergrundmerkmal auf das Fahrzeug 38 nicht zutrifft. Um Kollateralschäden an zivilen Fahrzeugen unbedingt zu vermeiden, kann das Merkmal des Hintergrunds als bindendes Merkmal in den Erfassungsunterstützungsdaten hinterlegt sein, ohne das das Ziel 20 nicht als solches erfasst oder bekämpft werden darf. Da das Ziel 20 alle visuellen Merkmale erfüllt, ist es vom Fahrzeug 38 durch dieses visuelle Merkmal zu erkennen und somit als Ziel 20 zu identifizieren.
  • Als weitere Erfassungsunterstützungsdaten kann eine Fahrtrichtung und Fahrtgeschwindigkeit des Ziels 20 dienen, sodass aus einem Aufklärungszeitpunkt und einem Zielerfassungszeitpunkt durch den Flugkörper 22 der Fahrtrichtung und Fahrtgeschwindigkeit ein momentaner Aufenthaltsort errechenbar ist, an dem sich das Ziel 20 unter Annahme der aufgeklärten Richtung und Geschwindigkeit positioniert sein müsste. Weiter können Toleranzinformationen Bestandteil der Erfassungsunterstützungsdaten sein, z.B. eine zulässige Positionsungenauigkeit, Farbungenauigkeit, Größenungenauigkeit, Strahlungssignaturungenauigkeit oder dergleichen.
  • Als Erfassungsunterstützungsdaten ist außerdem ein Geländemodell als dreidimensionales Modell vorteilhaft, das dem Flugkörper 22 vor einem erstmals möglichen Erfassungszeitpunkt zur Verfügung gestellt wird. Aus diesem dreidimensionalen Geländemodell kann der Flugkörper 22 die Sicht auf das Zielgebiet 12 aus jeder Perspektive in ein zweidimensionales theoretisches Sichtbild wandeln, das eine Lokalisierung der interessierenden Objekte 16, 18, 20, 30 erleichtert, die zweckmäßigerweise in dem dreidimensionalen Geländemodell als solche markiert sind. Ebenfalls möglich ist es, dass das dreidimensionale Geländemodell vom Flugkörpereinweisungssystem 26 verwendet wird, um das synthetische und insbesondere zweidimensionale Bild zu erstellen, das dem Flugkörper 22 die Sicht auf das Zielgebiet von seiner Anflugroute 34 aus simuliert. Durch ein Vorabbild, beispielsweise das synthetische Bild und/oder das dreidimensionale Geländemodell, kann der Flugkörper 22 durch Bildkorrelation mit einem vom Flugkörper 22 aufgenommen Bild des Zielgebiets 12 interessierende Objekte 16, 18, 20, 30 einfach finden.
  • Als Erfassungsunterstützungsdaten wird dem Flugkörper 22 ein Erfassungsverfahren unter mehreren möglichen Erfassungsverfahren mitgeteilt, mit dem er das Ziel 20 erfassen soll. Im vorliegend beschriebenen Ausführungsbeispiel wird in einer ersteren Flugphase ein visuelles und auf die Landmarke 30 gerichtetes Erfassungsverfahren vorgegeben. In einer späteren Flugphase wird ein Erfassungsverfahren vorgegeben, in dem das Ziel 20 mittels Infrarotsensor erfasst wird, um es von ähnlich aussehenden und das Ziel 20 umgebenden Felsbrocken unterscheiden zu können. Eine dritte und wiederum spätere Flugphase ist dadurch gekennzeichnet, dass das Erfassungsverfahren wiederum im sichtbaren Frequenzbereich erfolgt, um die visuellen : Merkmale der Zielfarbe und der Hintergrundfarbe erfassen und prüfen zu können. Auf diese Weise umfassen die Erfassungsunterstützungsdaten mehrere Erkennungsverfahren, die hintereinander oder gleichzeitig eingesetzt werden und mit denen der Flugkörper 22 das Ziel 20 erfassen soll. Ebenfalls umfassen die Erfassungsunterstützungsdaten zumindest einen Ortspunkt, ab dem ein Erfassungsverfahren gewechselt werden soll.
  • Fig. 2 zeigt ein Ablaufdiagramm eines Verfahrens zum Einweisen des Flugkörpers 22 auf das Ziel 20. Aus einer ersten Datenbank, die die Wissensbasis eines Führungssystems enthält, beispielsweise ein Einsatzlagebild, wird übergeordnete Lageinformation 40 abgerufen und einer Prozesseinheit 42 des Flugkörpereinweisungssystems 26 übergeben. Aus einer weiteren Datenbank, die alternativ ein Bestandteil der ersten Datenbank sein kann, werden Aufklärungsdaten 44 abgerufen, beispielsweise über das Einsatzgebiet, das darin enthaltene Zielgebiet 12 und/oder Merkmale des Ziels 20. Die übergeordnete Wissensbasis aus der Datenbank 40 kann hierbei ebenfalls Aufklärungsdaten beinhalten.
  • Aus diesen oder anderen Informationen werden vom Flugkörpereinweisungssystem 26 oder einem anderen System Zieldaten 46 erzeugt, wie die Koordinaten des Zielgebiets 12 und ggf. des Ziels 20, die dem Flugkörper 22 vor oder nach einem Start aus der Trägerplattform 24 übermittelt werden. Anhand dieser Daten kann der Flugkörper 22 gestartet und in Richtung auf das Zielgebiet hin geführt werden.
  • Aus den Aufklärungsdaten 44 werden von der Prozesseinheit 42 des Flugkörpereinweisungssystems 26 außerdem Erfassungsunterstützungsdaten 48 erzeugt. Diese können - je nach Daten - dem Flugkörper 22 auch noch nach seinem Start übergeben werden, da sie die erst später erfolgende Erfassung unterstützen. Zur Erzeugung der Erfassungsunterstützungsdaten 48 werden zusätzlich Flugkörperinformationen 50 über den Flugkörper 22 einbezogen werden. Diese Flugkörperinformation 50 enthält zweckmäßigerweise Information über die Art des Flugkörpers 22 und seine Sensoren, seine Prozesseinheit und deren Fähigkeiten, über den Suchkopf und dessen Optik, über den Gefechtskopf des Flugkörpers 22 und dessen Einsatzmöglichkeiten und dergleichen.
  • Die hieraus abgeleitete Erfassungsunterstützungsdaten 48, die Zielmerkmale, ein Zielverhalten, eine Zielposition, einen Zielkontext, eine Lenkstrategie für den Flugkörper 22, und/oder Informationen zu Erfassungsbedingungen enthalten kann, werden einer weiteren Prozesseinheit 52 zugeführt, die Teil des Flugkörpers 22 ist. Die bodengebundene Prozesseinheit 42 und die Prozesseinheit 52 des Flugkörpers 22 bilden hierbei ein Prozessmittel des Flugkörpereinweisungssystems 26. Alternativ ist es auch möglich, dass die Aufklärungsdaten 44 an den Flugkörper 22 übergeben werden, und die Prozesseinheit 48 des Flugkörpers 22 hieraus Erfassungsunterstützungsdaten 48 ableitet, nach denen der Flugkörper 22 das Ziel 20 erfasst. Auch möglich ist es, dass Erfassungsunterstützungsdaten 48 direkt dem Flugkörper 22 übergeben werden zusammen mit Aufklärungsdaten, aus denen der Flugkörper 22 weitere Erfassungsunterstützungsdaten 48 erzeugt und die Zielerfassung und/oder Flugkörpersteuerung aus der Gesamtheit der Erfassungsunterstützungsdaten 48 erfolgt.
  • Anhand der Erfassungsunterstützungsdaten 48 führt die Prozesseinheit 52 die Steuerung 54 des Flugkörpers 22 durch. Die Steuerung 54 kann die Steuerung von Aktuatoren zur Lenkung des Flugkörpers 22 umfassen, von Aktuatoren zum Steuern des Suchkopfs, von weiteren Aktuatoren zum Auslösen eines Gefechtskopfs, die Steuerung eines Auslösemodus des Gefechtskopfes und/oder die Wahl eines Erfassungsmodus zum Erfassen des Ziels 20 und weitere Steuerungsaktionen.
  • Bezugszeichenliste
  • 2
    Berg
    4
    Tal
    6
    Tal
    8
    Bergsattel
    10
    Wolke
    12
    Zielgebiet
    14
    Dorf
    16
    Objekt
    18
    Objekt
    20
    Ziel
    22
    Flugkörper
    24
    Trägerplattform
    26
    Flugkörpereinweisungssystem
    28
    Aufklärungssensor
    30
    Landmarke
    32
    Hügel
    34
    Anflugroute
    36
    Abstand
    38
    Fahrzeug
    40
    Lageinformationen
    42
    Prozesseinheit
    44
    Aufklärungsdaten
    46
    Zieldaten
    48
    Erfassungsunterstützungsdaten
    50
    Flugkörperinformationen
    52
    Prozesseinheit
    54
    Steuerung

Claims (12)

  1. Verfahren zum Einweisung eines Flugkörpers (22) auf ein Ziel (20), bei dem Zieldaten (46), anhand derer der Flugkörper (22) auf das Ziel (20) steuerbar ist, zusammengestellt und an den Flugkörper (22) zur Ansteuerung auf das Ziel (20) gegeben werden,
    dadurch gekennzeichnet,
    dass Aufklärungsdaten (44) aus einem Aufklärungssensor (28) durch ein Flugkörpereinweisungssystem (26) zu Erfassungsunterstützungsdaten (48), die über die Zieldaten (46) hinausgehende Informationen zur Erfassung des Ziels (20) enthalten, verarbeitet und an den Flugkörper (22) gegeben werden.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) Informationen zu einer Erkennbarkeit des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen über aktuelle Bedingungen einer Erfassung des Ziels (20) enthalten.
  3. Verfahren nach Anspruch 1 oder 2,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) Informationen zu einem Umgebungsmerkmal (30) in der Umgebung des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) eine Beziehungsinformation des Ziels (20) zum Umgebungsmerkmal (30) enthalten.
  4. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) Bildinformationen einer Umgebung des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) ein Geländemodell einer Umgebung des Ziels (20).
  5. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (40) Bildinformationen einer Umgebung des Ziels (20) enthalten, und die Erfassungsunterstützungsdaten (48) ein synthetisches Bild des Ziels (20) aus Sicht des anfliegenden Flugkörpers (22).
  6. Verfahren nach Anspruch 5,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) Sichtverhältnisse auf der Anflugroute (34) des Flugkörpers (22) auf das Ziel (20) beinhalten und das synthetische Bild unter Berücksichtigung der Sichtverhältnisse erstellt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) ein vor dem Anflug des Flugkörpers (20) auf das Ziel (20) erstelltes Vorabbild des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen zu einer Beziehung des Vorabbilds mit einem Sichtbild des Ziels (20) enthalten, das sich dem auf das Ziel (20) anfliegenden Flugkörper (22) bietet.
  8. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) Informationen zu einer Sicht auf das Ziel (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen darüber, welches unter mehreren möglichen Zielerfassungsverfahren des Flugkörpers (22) das am besten geeignete ist.
  9. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) Informationen zu einer Sicht auf das Ziel (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen darüber, ob der Flugkörper (22) ausreichend gut über eigene Sensorik an das Ziel (20) heranführbar ist oder ob er mit Hilfe eines anderen Verfahrens in Richtung auf das Ziel (20) geführt werden muss.
  10. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Aufklärungsdaten (44) mehrere Zielmerkmale aus optischen Informationen des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen enthalten, welche der Zielmerkmale das aufgefasste Ziel (20) aufweisen muss.
  11. Flugkörpereinweisungssystem (26) mit einem Prozessmittel, das dazu vorbereitet ist, Zieldaten (46), anhand derer ein Flugkörper (22) auf ein Ziel (20) steuerbar ist, zusammenzustellen und an den Flugkörper (22) zur Ansteuerung auf das Ziel (20) zu übergeben, und Aufklärungsdaten (44) aus einem Aufklärungssensor (28) zu Erfassungsunterstützungsdaten (48), die über die Zieldaten (46) hinausgehende Informationen zur Erfassung des Ziels (20) enthalten, zu verarbeiten und an den Flugkörper (22) zu übergeben.
  12. Flugkörpereinweisungssystem nach Anspruch 11,
    dadurch gekennzeichnet,
    dass das Prozessmittel eine bodengebundene erste Prozesseinheit (42) und eine zweite Prozesseinheit (52) im Flugkörper (22) aufweist, wobei die erste Prozesseinheit (42) dazu vorbereitet ist, die Aufklärungsdaten (44) zu Erfassungsunterstützungsdaten (48) zu verarbeiten und zweite Prozesseinheit (52) dazu vorbereitet ist, den Flugkörper (22) unter Verwendung der Erfassungsunterstützungsdaten (48) auf das Ziel (20) hin zu steuern.
EP11004429.4A 2010-06-04 2011-05-31 Verfahren zum Einweisen eines Flugkörpers auf ein Ziel Active EP2392890B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201010022728 DE102010022728A1 (de) 2010-06-04 2010-06-04 Verfahren zum Einweisen eines Flugkörpers auf ein Ziel

Publications (2)

Publication Number Publication Date
EP2392890A1 true EP2392890A1 (de) 2011-12-07
EP2392890B1 EP2392890B1 (de) 2019-06-26

Family

ID=44372404

Family Applications (1)

Application Number Title Priority Date Filing Date
EP11004429.4A Active EP2392890B1 (de) 2010-06-04 2011-05-31 Verfahren zum Einweisen eines Flugkörpers auf ein Ziel

Country Status (2)

Country Link
EP (1) EP2392890B1 (de)
DE (1) DE102010022728A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3734758A1 (de) * 1987-10-14 1989-05-03 Messerschmitt Boelkow Blohm Panzerabwehr-raketensystem
DE19828644A1 (de) * 1998-06-26 2000-01-20 Buck Werke Gmbh & Co I K Verfahren zum ferngesteuerten Bekämpfen bodennaher und/oder bodengebundener Ziele
US6157875A (en) * 1998-07-17 2000-12-05 The United States Of America As Represented By The Secretary Of The Navy Image guided weapon system and method
US20050087649A1 (en) * 2003-09-29 2005-04-28 Sims S. R.F. Weather-agile reconfigurable automatic target recognition system
US7537181B2 (en) * 2001-09-26 2009-05-26 Mbda Uk Limited Guidance system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5881969A (en) * 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US6072889A (en) * 1997-12-03 2000-06-06 The Raytheon Company Method and system for imaging target detection
DE10356157B4 (de) * 2003-12-02 2006-06-14 Michael Grabmeier Verfahren und Vorrichtungen für den Marschflugkörper-Verschuß mittels Booster-Plattform
DE102008054264B4 (de) * 2008-10-31 2012-09-13 Lfk-Lenkflugkörpersysteme Gmbh Multifunktionale Service- und Testeinrichtung für unbemannte Flugkörper

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3734758A1 (de) * 1987-10-14 1989-05-03 Messerschmitt Boelkow Blohm Panzerabwehr-raketensystem
DE19828644A1 (de) * 1998-06-26 2000-01-20 Buck Werke Gmbh & Co I K Verfahren zum ferngesteuerten Bekämpfen bodennaher und/oder bodengebundener Ziele
US6157875A (en) * 1998-07-17 2000-12-05 The United States Of America As Represented By The Secretary Of The Navy Image guided weapon system and method
US7537181B2 (en) * 2001-09-26 2009-05-26 Mbda Uk Limited Guidance system
US20050087649A1 (en) * 2003-09-29 2005-04-28 Sims S. R.F. Weather-agile reconfigurable automatic target recognition system

Also Published As

Publication number Publication date
DE102010022728A1 (de) 2011-12-08
EP2392890B1 (de) 2019-06-26

Similar Documents

Publication Publication Date Title
EP2399096B1 (de) Verfahren und system zur erfassung von zielobjekten
DE102010005199B4 (de) Verfahren und Vorrichtung zur Ortsbestimmung eines fliegenden Ziels
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
EP1090263B1 (de) Verfahren zum ferngesteuerten bekämpfen bodennaher und/oder bodengebundener ziele
DE102015006233B4 (de) Verfahren zur Bestimmung der Flugbahn einer Fremddrohne
DE3843043A1 (de) Leitverfahren und einrichtung fuer den katastrophen- und umweltschutz
DE102016008553A1 (de) System umfassend ein Kraftfahrzeug und ein unbemanntes Luftfahrzeug und Verfahren zum Erfassen von Gegebenheiten in einer Umgebung eines Kraftfahrzeugs
EP2482025A2 (de) Verfahren und Vorrichtung zum Abwehren eines angreifenden Flugkörpers
DE102017011407A1 (de) System und verfahren zur personenkoordinierten zielfindung eines lenkflugkörpers
EP1983292B1 (de) Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
EP2392890B1 (de) Verfahren zum Einweisen eines Flugkörpers auf ein Ziel
EP3118567B1 (de) Verfahren zum schützen eines fahrzeugs vor einem angriff durch einen laserstrahl
DE10015164A1 (de) Kommunikations-Verfahren mit einem ROSAR-Gerät
DE102010005198B4 (de) Flugkörper und Verfahren zum Erfassen eines Ziels
EP3081892A1 (de) Verfahren zum lenken eines flugkörpers
EP2897102A1 (de) Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
EP2664889B1 (de) Positionsbestimmung und Datenübertragung mittels Laser
EP3637312A1 (de) Verfahren zum erkennen eines zielobjekts mittels einer kamera
DE19930393B4 (de) Verfahren zur Überwachung eines Gebiets auf Auffälligkeiten durch einen oder mehrere Beobachter
DE102007056661A1 (de) Unbemannter Flugkörper
EP2546716B1 (de) Lenken eines Vehikels in Richtung eines Ziels
DE3048574A1 (de) "vorrichtung fuer das auffinden und die indentifizierung von einzelzielen sowie fuer die waffeneinweisung auf einzelziele von schnellfliegenden kampfflugzeugen aus, mit einem infrarotsensor, radar und laser"
EP3869145A1 (de) Verfahren zur zielführung eines flugkörpers, flugkörpersteuerung und flugkörper
EP4160245A1 (de) Verfahren und vorrichtung zum lokalisieren einer signalquelle
DE102020003080A1 (de) Verfahren und Steuersystem zum Ansteuern eines Flugkörpers auf ein Zielobjekt

Legal Events

Date Code Title Description
AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20120504

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: DIEHL DEFENCE GMBH & CO. KG

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

RIC1 Information provided on ipc code assigned before grant

Ipc: F41G 3/02 20060101AFI20181206BHEP

Ipc: F41G 7/22 20060101ALI20181206BHEP

Ipc: F41G 7/00 20060101ALI20181206BHEP

INTG Intention to grant announced

Effective date: 20181221

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502011015831

Country of ref document: DE

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 1148796

Country of ref document: AT

Kind code of ref document: T

Effective date: 20190715

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: SE

Ref legal event code: TRGR

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20190626

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

REG Reference to a national code

Ref country code: NO

Ref legal event code: T2

Effective date: 20190626

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190927

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190926

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20191028

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20191026

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200224

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502011015831

Country of ref document: DE

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG2D Information on lapse in contracting state deleted

Ref country code: IS

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20200522

Year of fee payment: 10

Ref country code: NO

Payment date: 20200527

Year of fee payment: 10

26N No opposition filed

Effective date: 20200603

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20200527

Year of fee payment: 10

Ref country code: SE

Payment date: 20200527

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20200715

Year of fee payment: 10

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20200531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 1148796

Country of ref document: AT

Kind code of ref document: T

Effective date: 20200531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200531

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502011015831

Country of ref document: DE

REG Reference to a national code

Ref country code: NO

Ref legal event code: MMEP

REG Reference to a national code

Ref country code: SE

Ref legal event code: EUG

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20210531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NO

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210531

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20211201

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210601

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210531

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190626