EP2907105A2 - Image processing method and method for tracking missiles - Google Patents

Image processing method and method for tracking missiles

Info

Publication number
EP2907105A2
EP2907105A2 EP13794796.6A EP13794796A EP2907105A2 EP 2907105 A2 EP2907105 A2 EP 2907105A2 EP 13794796 A EP13794796 A EP 13794796A EP 2907105 A2 EP2907105 A2 EP 2907105A2
Authority
EP
European Patent Office
Prior art keywords
image
raster
image information
scene
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP13794796.6A
Other languages
German (de)
French (fr)
Inventor
Hans Wolfgang PONGRATZ
Manfred Hiebl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Airbus Defence and Space GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Defence and Space GmbH filed Critical Airbus Defence and Space GmbH
Publication of EP2907105A2 publication Critical patent/EP2907105A2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations

Definitions

  • the present invention relates to a method for image processing according to the preamble of patent claim 1. It further relates to a method for automatic object recognition according to the preamble of patent claim 4 and observation devices according to claim 6 and claim 7.
  • of the object for example a rocket
  • Confirmation copy of the object (for example a rocket) can be measured so accurately that a stable tracking of the observation device is possible and that
  • a combat of the flying object can take place on its trajectory.
  • Rocket flight route must be stationed close enough so that they always have a flying missile in view over the horizon. This not only requires a great deal of effort, but is often not sufficiently possible for political reasons.
  • radar stations can only determine the position of targets at a distance of 1000 km transversely to the viewing direction with an accuracy of several kilometers and measure their Radarrückstrahlquerites, but make no accurate identification.
  • decoys are usually not distinguishable by radar from real warheads, which causes great problems.
  • Orbits are known that can detect launching missiles in the mid-infrared range with telescopes. Since the discovery must be made from above against the warm earth background with a multitude of hard-to-detect false targets, these systems have to contend with a comparably low sensitivity. Due to the observation from above, the sensor also sees only the less bright and strongly fluctuating part of the engine jet. As a result, its measuring accuracy is limited to a few hundred meters, and can not be significantly improved due to the system. From the unpublished DE 10 201 1 010 337 is a camera system for detecting and tracking of moving objects located at a great distance from a high-flying aircraft, which is above the dense
  • Atmosphere flies known. This system has the great advantage of launching missiles practically out of the atmosphere from below against the background of cold space
  • Core area of the beam has a hundred times higher luminance than the more distant beam and is fixed at the nozzle exit, so does not cause any fluctuation.
  • an ideal extremely bright (1 megawatt / m 2 ) point light source with a diameter of only a few meters is available for tracing the tracks, which accurately and steadily executes the trajectory of the rocket.
  • the object of the invention is to provide a sensor that can locate and track this point light source over a distance of up to 1500 km with an accuracy of a few meters.
  • the multispectral camera can sequentially acquire multispectral images (e.g., at 700nm, 800nm, and 950nm) of a scene by means of a motor driven filter wheel having at least 3 narrowband (e.g., 20nm) transmission filters. From this, by conversion according to the blackbody radiation laws, a temperature image of the scene with a resolution of e.g. 50 ° K can be calculated.
  • multispectral images e.g., at 700nm, 800nm, and 950nm
  • 3 narrowband e.g. 20nm
  • the approximately 2300 ° K hot core area of a solid rocket and its characteristic shape can clearly be distinguished from the 2100 ° K hot core area of a liquid rocket and a different shape, and with sufficient optical resolution of the camera from 1 m to 2 m in 1000 km distance also measure the size of the core area and its temperature distribution.
  • military solid rockets can be distinguished from civil liquid rockets and different rocket types by the size, number and arrangement of the engines.
  • This camera system has a camera provided with a long-focal-length camera lens, which is arranged on a position-stabilized platform.
  • This camera is equipped with a high-speed shutter and a first and a second image sensor.
  • the captured by the camera optics light radiation can be performed either on the first or the second image sensor, wherein one of the image sensors is associated with a further telephoto optics.
  • the camera optics further comprises a pivotable mirror, with which it is possible to scan an area line by line by pivoting the mirror, wherein the captured image signal is fed to one of the image sensors. If a target object is detected during this scanning process, the light beam is deflected to the other image sensor, which is then used for object identification and, if appropriate, for target tracking.
  • Object of the present invention is to provide a method for image processing, with which it is possible, even over long distances,
  • Another object is to use this method for
  • Image processing to perform an automatic object detection
  • the inventive method designed in this way has the following
  • Image processing device for improving the signal-to-noise ratio of the image information, wherein the processing is carried out in the following sub-steps:
  • Raster filter element of a raster filter having an odd number of rows and an odd number of columns; b3) determining the brightness values of each of the raster filters
  • Rasterfilterelement each other raster filter element having an individual light attenuation property
  • step b4) summing the brightness values determined in step b3) into a sum brightness value and associating this sum brightness value with the raster pixel covered by the central raster filter element;
  • step b) generating a result image with the same screening as the raw image from the individual sum brightness values of the raster image elements obtained in step b).
  • Brightness gradient of the raw image is smoothed. Furthermore, noise pixels that emerge from the background of the raw image are removed, thus smoothing the image as well.
  • the brightness curve in the resultant image is continuous and differentiable from the raw image and the image contrast is improved, so that an object contained in the raw image emerges more clearly and clearly in the resulting image.
  • Image processing is characterized in that in step a) the image information of the scene is detected in more than one electromagnetic wavelength range in order to obtain raw images of the scene in different spectral ranges; that the steps b) and c) are performed for all raw images of the scene in order to obtain result images of different spectral regions, and that the result images of the different spectral regions are combined by superimposition into a multispectral result image.
  • a multi-spectral image with filters selected to match the temperature of the observed body (e.g., 2300 ° K) on the short-wave flank of the blackbody radiation curve can be used to convert the multispectral color image to a temperature image.
  • This temperature image makes it possible to have a small stable core temperature range within a much larger, possibly locally brighter, strongly fluctuating, background brightness field, such as, e.g. to find and track a missile fire tail.
  • Image processing the following steps performed: the detection of the scene in step a) is performed at different angles of rotation about the optical axis of the optical device;
  • the individual result images are compared with sample images of individual objects stored in an object database
  • That pattern image with the least deviation from one or more of the result images identifies the object contained in the scene and determines the position of the object in the result image.
  • Object identification enabled. Furthermore, by means of this automatic object recognition method, the position of the object in the result image can be determined, and thus a directional vector of the movement of the object (eg a rocket) can already be predicted with greater accuracy than in the prior art in a single scene detected and analyzed.
  • the object eg a rocket
  • Raster elements of the result image with corresponding raster elements of the pattern image is done.
  • the directed to the observation device part of the object is achieved by the observation device with the features of claim 6 and also by the observation device with the features of claim 7. While the observation device is formed with the features of claim 6, to the inventive method for image processing realize, the observation device according to claim 7 is adapted to perform the inventive method for automatic object recognition using the method according to the invention for image processing.
  • the image processing device has a screen-rastering module and a raster filter module is advantageous.
  • the image screening module has a matrix-like arrangement of light-guiding elements which are arranged between the optical device and a sensor sensitive to the detected radiation. It is at least a part of
  • Light guide each associated with a brightness-reducing raster filter element of the raster filter module.
  • the optical device is designed such that it images the acquired image information in a plane of entry of the image ram module as a raw image, and it is further configured such that the raw image is displaceable with respect to the entrance plane of the image raster module on the entry level.
  • a computer unit is provided which receives a brightness signal from the sensor and on which runs a software which implements method step c) of claim 1 and preferably the method steps of one of claims 2 to 5.
  • This advantageous embodiment of the observation device implements the method steps according to the invention in an opto-mechanical manner. Whenever "brightness" is used in this document, it is not limited to the spectrum of visible light, but also includes the intensity of the radiation in a non-visible spectrum such as in the infrared spectrum or in the ultraviolet spectrum, but without being limited thereto.
  • the method steps according to the invention can also be implemented in software, for which purpose the suitable observation device is characterized in that a visual sensor is arranged downstream of the optical device, that the optical device is designed such that it images the acquired image information in a sensor plane of the image sensor a computer unit is provided, which receives an image signal from the image sensor, and that software runs in the computer unit which implements the method steps b) and c) of claim 1 and preferably the method steps of one of claims 2 to 5, wherein the image rasterization module and the raster filter module are designed as a subroutine of the software.
  • This advantageous embodiment of the observation device implements the method steps according to the invention in an optoelectronic manner.
  • the composite multispectral images are processed after the preparation of the raw single images from a larger number of superimposed
  • Multispectral image then has a much better signal-to-noise ratio than the raw images of preferably more than 100 with a sufficient number of superimposed individual images by averaging over the many frames.
  • the composite multispectral images are preferably with a
  • Multispectral image evaluation and identification method evaluated in the image evaluation device 25, 125.
  • an observation of the target behavior is preferably carried out first and, in particular, the number and the trajectories of the visible objects are determined. Then a file of all flying objects and their trajectories is created, which is a safe
  • the composite multispectral images can also be used to observe and analyze the behavior of the objects (separation of a missile upper stage, ejection of decoys, flight maneuvers of a warhead) over time.
  • the composite multispectral images will continue to be in one
  • the target image recognition can thus recognize imaged targets as target objects of a certain type, and consequently
  • the target image recognition can work more reliably and sharper when the added multispectral images are subjected to multi-stage rendering prior to processing. For this, the composite multispectral images are first
  • a normalized form is converted by first forming the orthogonal vectorially added total brightness as the brightness value for each pixel, and then normalizing all the color components with the total brightness.
  • the entire color vector then consists of the brightness and the normalized
  • Color values This can be a color coordinate system with any number
  • Spectral components can be defined and in this system can all
  • Color operations are performed multispectrum, which are defined in the RGB system only in three colors. For all color components and the brightness of each image pixel, the
  • FIG. 2 shows an operation in which the image is simultaneously smoothed and differentiated, in which after the averaging over a plurality of images still existing interference pixels are removed and smoothed, and in which brightness transitions and edges are accentuated, so that the
  • the image is also subjected to an affine color transformation in which the target characterizing spectral components are stretched and thus better evaluated and atypical spectral components are compressed. This allows the correlation of the result images with the real target objects hidden in the images in the target image recognition a higher selectivity between real targets and false targets, which could be confused with real targets, as without this image processing.
  • the multispectral image recognition can be used either with the device for
  • the telescope 110 generates, via the deflection mirror 112, a real 25 ⁇ 25 pixel target image of a distant target in the plane 121 of the front surface of the optical 5 ⁇ 5
  • Optical fiber bundle of the image capture device 120 which occupies the same area as 5 x 5 pixels of the real target image.
  • the scanning mirror 1 12 deflects the target image horizontally and vertically so that each center pixel of each 5 x 5 pixel block sweeps sequentially over the central light guide of the 5 x 5 optical fiber bundle.
  • the twenty-five values for the 5 x 5 pixel blocks of each 25 x 25 pixel image are stored in the computing unit 126 for all spectral regions. This is repeated for twelve rotational positions over 360 ° of the 25 x 25 pixel image. Search areas of 15x15 pixel blocks from the target images are compared for the value of each center pixel of each 5x5 pixel block with the sought after 15x15 pixel reference images, with the differences of each nine
  • Coefficient values of input image search area and current reference image are formed.
  • the position resolution of the image recognition is five pixels horizontally and vertically.
  • the telescope 110 In the digital-based device (FIG. 4), the telescope 110 generates a real 25x25 pixel target image of a remote illuminated target in the image plane of the image capture device 120 comprising, for example, an NIR (Near Infrared) camera via the deflection mirror 112.
  • the camera converts the light signal into a digital multispectral image with high resolution.
  • characteristic values of a weighting function according to the invention are calculated in the search image (25 ⁇ 25 pixels in size) for each search pixel position, as described above. Due to the described design of the evaluation function, the number of rotational positions to be examined can be limited to twelve without loss of selectivity.
  • target detection, trajectory tracking, trajectory measurement and target observation and target identification of launching missiles can be performed even after engine burnout at distances up to 500 km.
  • FIG. 1A shows a raster filter matrix of the observation device according to FIG. 1;
  • FIG. a second embodiment of an observation device for carrying out the image processing method according to the invention;
  • FIG. 2A shows a raster filter matrix of the observation device according to FIG. 2;
  • Fig. 3 shows a first embodiment of an observation device for
  • Fig. 4 shows a second embodiment of an observation device for
  • the optical device 1 shows an observation device according to the invention with an optical device 1 and an image processing device 2.
  • the optical device 1 has a telescope unit 10 with a long-focal-length objective, which is shown only schematically in the figure.
  • the telescope unit 10 begins
  • electromagnetic radiation S of an observed scene in the visible spectrum of the light and outside the visible spectrum of the light for example, infrared and / or ultraviolet radiation.
  • the captured by the telescope 10 radiation S is moved to a
  • Deflection mirror 12 passes, which is driven by a drive 14 shown only schematically in Fig. 1 for performing a two-dimensional scan movement.
  • the vertical deflection of the deflection mirror 12 takes place in an angular range, which is defined in Fig. 1 by way of example by the upper boundary line a of a central beam SM and by the lower boundary line a 'and by a first lateral boundary line b and a second lateral boundary line b' of the center beam SM.
  • the deflection mirror 12 performs line-by-line scanning of the radiation S captured by the telescope 10 and in each case projects a portion of the target image Z 'determined by the area Z onto an entrance plane E of a rasterization module 20 of
  • the image screening module 20 has a matrix-like arrangement of light-guiding elements, not shown in detail in FIG. 1, which open at one end in the input plane E.
  • a likewise matrix-type raster filter 22 is provided, which is shown only schematically in FIG. 1 and which is reproduced in cross-section in FIG. 1A as a filter matrix.
  • This raster filter 22 contains a central raster filter element 22 "and a plurality of further individual raster filter elements 22 'surrounding it, which are each assigned to one of the further light-guiding elements surrounding the central light-guiding element.
  • the rasterizing module 20 thus consists of five by five (ie twenty-five) Light guide, each of which a raster filter element 22 ', 22 "is assigned.
  • a respective further raster filter element 22 ' is assigned factors which reflect the light transmittance of the individual raster filter element.
  • the central raster filter element 22 " which is assigned to the central light-guiding element, has a light transmittance of 1.00, which corresponds to 100% .
  • the light guided through the central light-guiding element is thus not attenuated by the raster filter 22.
  • the light is transmitted around the central light-emitting element
  • 0.21 corresponds to 21% light transmission.
  • the light emitted by the individual light guide elements of the image screening module 20 through the raster filter 22 impinges on a sensor 24, which is formed, for example, by a photo light amplifier tube and which forms the sum signal of the light radiation emerging through the individual raster filter elements.
  • This brightness or radiation intensity sum signal Ss is forwarded by the sensor 24 to a computer unit 26 of the image processing device 2.
  • the sum of the radiation intensities of the neighboring pixels of the matrix shown in FIG. 1A is detected by the sensor 24 for each target image pixel, wherein the respective target image pixel forms the central element of the matrix.
  • a target image pixel corresponds to a grid element of the grid of the light guide elements
  • Each target image pixel thus becomes the
  • the luminances of the pixels surrounding the central pixel element are summarily assigned according to the matrix, so that a
  • the computer unit 26 after a complete scan of the deflection mirror 12, all stored sum brightness values of the individual target image pixels are combined again into a result image, which is then output via an output interface 27, for example on a display device 28.
  • the formation of the result image from the stored sum brightness values of the individual target image pixels takes place in such a way that the stored sum brightness value of a target image pixel is assigned to the same position in the result image that the target image pixel assumed in the target image.
  • This output result image is not only brighter than the target image Z 'originally projected onto the input plane E by the light amplification described, but due to the different weighting of the respective neighboring pixels according to the matrix from FIG. 1A, this result image is also smoothed and no longer contains any noise pixels emerge from the background.
  • the brightness curve of the result image is continuous, so that the result image is differentiable.
  • the image contrast is also improved by the described method.
  • the brightness filter matrix (raster filter 22) is given with 5 ⁇ 5 raster filter elements and the target image Z 'spanned by the scan area is assumed to be 25 ⁇ 25 pixels, the invention can also be used for all other resolutions of the target image and for all other resolutions of the
  • Brightness filter matrix or the matrix of light-guiding elements can be realized.
  • FIG. 2 shows a modified variant of that shown in FIG.
  • the radiation S received by the scene to be observed is transmitted by the telescope unit 110 of the optical system
  • Device 101 is captured and guided by means of a - in contrast to FIG. 1 Vietnamesebewegbaren- deflecting mirror 1 12 on an image sensor 121 (for example, a CCD sensor) of an image capture device 120, which is part of the image processing device 102, wherein the target image Z 'of observed scene is completely mapped on the image sensor 121.
  • an image sensor 121 for example, a CCD sensor
  • the image capture device 120 converts the optical target image Z 'projected onto the image sensor 121 into a digital image, which is forwarded in the form of an image file to a computer unit 126.
  • the computer unit 126 runs from a software that analogous to that in connection with
  • Fig. 1 described optical image processing method prepared the obtained digital image.
  • the recorded target image Z ' is converted into a raster image and processed in raster element or pixel by pixel, wherein the brightness value of each target pixel and, according to the filter matrix shown in Fig.
  • Result images of different spectral ranges are superimposed in the computer unit 26, 126 to form a multi-spectral image, which is output via the output interface 27, 127.
  • Fig. 3 shows an observation device as already described with reference to Fig. 1.
  • the Jardinrast ceremoniessmodul 20 having the light-guiding elements about a parallel to the longitudinal direction of the Lichtleitiata axis of rotation X in predetermined angular increments (for example, 12 angular steps over 360 °) is rotatable as symbolically represented by the arrow 23.
  • the telescope 10 generates via the deflection mirror 12, for example, a 25 x 25 pixel target image Z ', which is shown in Fig. 3 as a matrix with 5 x 5 fields, each field has the size of 5 x 5 pixels or raster elements and having the same size and number of raster elements as the raster filter 22.
  • the deflection mirror 12 deflects the radiation captured by the telescope 10 horizontally and vertically such that each center pixel of each 5 ⁇ 5 pixel block
  • Frame screening module 20 is performed.
  • the brightness values for the twenty-five target picture elements z, which result in accordance with the image processing described in connection with FIG. 1, are stored in the computer unit 26.
  • the image processing is preferably carried out not only in the visible light range, but also analogously for other spectral ranges.
  • the result values for the other spectral ranges are also stored in the computer unit 26.
  • the rasterization module 20 is rotated further by one angular step and the described rendering steps are repeated. If this procedure for all angular steps, so for a complete revolution of the
  • Defined search image area and reduced to these elements z m target image is compared with stored in a memory device 29 reference images of the same size and the same resolution.
  • the position and the rotational position at which the smallest difference between the search image and the stored reference image occurs is registered as the position and rotational position of a target of a reference image class contained in the monitored scene.
  • Imaging process created. 4 shows a further variant of an inventive
  • Observation device corresponds in its construction of the observation device described in connection with FIG. 2, so that the reference numerals in Fig. 4 are the same reference numerals as in Fig. 2 and thus the same components
  • Embodiment of FIG. 4 on a reference image memory in the memory device 129 which communicates with the computer unit 126 for data exchange.
  • the computer unit 26, 126 and the memory device 29, 129 form an image evaluation device 25 within the image processing device 2.
  • the following characteristic values are calculated in the target image Z '(25 ⁇ 25 pixels) for each search pixel position Pz:
  • the average of the individual normalized spectral components and the total brightness, weighted according to the matrix of the raster filter 122, is calculated for each one of the nine marked 5 x 5 pixel blocks z m and for all four central pixels 123 of the corner pixel blocks in the central area from new pixel blocks In each case, the average value of the average values is calculated for the respective eight 5 ⁇ 5 pixel blocks Z arranged in a ring, which surround a respective corner pixel block.
  • Difference formation compared with the values for the searched reference target image and the value set with the smallest absolute value of the difference sum is registered as a representative of this search pixel.
  • the target image is now decomposed into smaller subareas and the search pixel with the smallest difference sum in each subarea is searched.
  • the value set of the search pixel with the smallest difference sum is interpreted as a recognized target image and at the considered search pixel position with a pixel resolution and the rotational position as the discovered target of the

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

A method for image processing with the following steps: a) capturing image information for a scene as electromagnetic radiation using an optical device (1, 101); b) processing the image information obtained in step a) by means of an image processing device (2, 102) to improve the signal-to-noise ratio in the image information, wherein the processing is performed in the following sub-steps: b1) dividing a raw image containing the image information into lines and columns to create a raster image; b2) overlaying a raster image element with a central raster filter element (22", 122") of a raster filter (22, 122) comprising an odd number of lines and an odd number of columns; b3) determining the brightness values of each of the raster image elements covered by the raster filter (22, 122), wherein apart from the central raster filter element (22", 122") every other raster filter element (22', 122') has an individual light attenuation characteristic; b4) summing the brightness values determined in step b3) to form a total brightness value and assigning this total brightness value to the raster image element covered by the central raster filter element (22", 122"); b5) repeating steps b2) to b4) for all remaining raster image elements; c) generating a resultant image with the same rasterization as the raw image from the individual total brightness values of the raster image elements obtained in step b). A method for tracking the course followed by launched rockets with burning engines providing considerably enhanced precision over the prior art, said method having the following characteristics: a) selecting an observation point to the side beneath the target with particularly good observation conditions, b) tracking using the temperature image of the core engine jet measured by a narrowband multispectral camera with at least three bands.

Description

Verfahren zur Bildaufbereitung und damit durchführbares Verfahren zur automatischen Objekterkennung sowie Beobachtungsvorrichtung und Verfahren zur hochgenauen Bahnverfolgung startender Raketen auf große  Method for image processing and thus feasible method for automatic object recognition as well as observation device and method for highly accurate tracking of rocket launching missiles on large
Entfernungen  Distances
TECHNISCHES GEBIET TECHNICAL AREA
Die vorliegende Erfindung betrifft ein Verfahren zur Bildaufbereitung gemäß dem Oberbegriff des Patentanspruchs 1. Sie betrifft weiterhin ein Verfahren zur automatischen Objekterkennung nach dem Oberbegriff des Patentanspruchs 4 und Beobachtungsvorrichtungen gemäß Anspruch 6 und Anspruch 7. The present invention relates to a method for image processing according to the preamble of patent claim 1. It further relates to a method for automatic object recognition according to the preamble of patent claim 4 and observation devices according to claim 6 and claim 7.
HINTERGRUND DER ERFINDUNG BACKGROUND OF THE INVENTION
Bei der Fernbeobachtung von Objekten, insbesondere im Zuge der militärischen Aufklärung, kommt es darauf an, bewegte Objekte, zum Beispiel startende Raketen mit brennenden Triebwerken, über eine große Entfernung von bis zu 1500 km und Raketen nach Brennschluss bei ausreichender, gegebenenfalls künstlicher, In the remote observation of objects, especially in the course of the military reconnaissance, it depends on moving objects, for example, starting rockets with burning engines, over a long distance of up to 1500 km and rockets after the end of fire with sufficient, possibly artificial,
Beleuchtung über eine Entfernung von bis zu 1000 km zunächst zu erfassen, entlang ihrer Bewegungsbahn zu verfolgen und zu identifizieren. Selbst dann, wenn zur Beobachtung optische Beobachtungsvorrichtungen mit langbrennweitigen Objektiven und Bildsensoren von hoher Auflösung verwendet werden, sind bei einer Objektentfernung von über 500 km bis hin zu 1500 km keine das Triebwerksfeuer- strahlobjekt scharf wiedergebenden Abbildungen mit hoher Auflösung im Bereich von einigen Metern möglich, da die Helligkeitsverteilung innerhalb des Feuerstrahls in einem Bereich von bis zu 100 m in alle Richtungen mit hoher Frequenz fluktuiert. Trotz einer derartigen reduzierten Abbildungsleistung muss es jedoch möglich sein, feststellen zu können, ob es sich bei dem erfassten Objekt um eine miltitärische oder zivile Trägerrakete oder um einen Täuschkörper handelt. Weiterhin muss die Objekterfassung über einen ausreichenden Zeitraum mit zuverlässigem Ergebnis mit einer Genauigkeit von einigen Metern erfolgen können, um daraus die Flugbahn Initially detect lighting over a distance of up to 1000 km, track it along its trajectory and identify it. Even if optical observation devices with long-focal-length lenses and high-resolution image sensors are used for observation, no high-resolution imaging in the range of a few meters is possible with an object distance of more than 500 km up to 1500 km. since the brightness distribution within the fire jet fluctuates in all directions with high frequency in a range of up to 100 m. However, despite such reduced imaging performance, it must be possible to determine whether the object being acquired is a military or civilian launcher or a decoy. Furthermore, the object detection must be able to take place over a sufficient period of time with reliable results with an accuracy of a few meters, to make the trajectory
|Bestätigungskopie| des Objekts (zum Beispiel einer Rakete) so genau vermessen zu können, dass eine stabile Nachführung der Beobachtungsvorrichtung möglich ist und dass | Confirmation copy | of the object (for example a rocket) can be measured so accurately that a stable tracking of the observation device is possible and that
gegebenenfalls eine Bekämpfung des fliegenden Objekts auf seiner Flugbahn erfolgen kann. if appropriate, a combat of the flying object can take place on its trajectory.
STAND DER TECHNIK STATE OF THE ART
Aus dem allgemeinen Stand der Technik sind für derartige Zielverfolgungszwecke große X-Band-Radaranlagen bekannt, die entlang einer erwarteten From the general state of the art, for such tracking purposes, large X-band radars are known, which are along an expected
Raketenflugroute dicht genug stationiert sein müssen, so dass sie eine fliegende Rakete stets im Blickfeld über dem Horizont haben. Dies erfordert nicht nur einen sehr großen Aufwand, sondern ist häufig auch aus politischen Gründen nicht ausreichend möglich. Zudem können derartige Radarstationen nur die Position von Zielobjekten bei einer Entfernung von 1000 km quer zur Sichtrichtung mit einer Genauigkeit von mehreren Kilometern bestimmen und deren Radarrückstrahlquerschnitt messen, aber keine genaue Identifikation vornehmen. Insbesondere Täuschkörper sind üblicherweise durch Radar nicht von echten Sprengköpfen zu unterscheiden, was große Probleme verursacht.  Rocket flight route must be stationed close enough so that they always have a flying missile in view over the horizon. This not only requires a great deal of effort, but is often not sufficiently possible for political reasons. In addition, such radar stations can only determine the position of targets at a distance of 1000 km transversely to the viewing direction with an accuracy of several kilometers and measure their Radarrückstrahlquerschnitt, but make no accurate identification. In particular decoys are usually not distinguishable by radar from real warheads, which causes great problems.
Aus dem Stand der Technik sind weiterhin Satelliten in geostationären From the state of the art satellites are still in geostationary
Umlaufbahnen bekannt, die startende Raketen im mittleren Infrarotbereich mit Teleskopen entdecken können. Da die Entdeckung von oben gegen den warmen Erdhintergrund mit einer Vielzahl von schwer erkennbaren Falschzielen erfolgen muss, haben diese Systeme mit einer vergleichbar geringen Empfindlichkeit zu kämpfen. Auf Grund der Beobachtung von oben sieht der Sensor auch nur den weniger hellen und stark fluktuierenden Teil des Triebwerksstrahles. Dadurch wird seine Messgenauigkeit auf einige hundert Meter begrenzt, und kann systembedingt nicht wesentlich vernbessert werden. Aus der nicht vorveröffentlichten DE 10 201 1 010 337 ist ein Kamerasystem zur Erfassung und Bahnverfolgung von in großer Entfernung befindlichen bewegten Objekten von einem hochfliegenden Fluggerät aus, das über der dichten  Orbits are known that can detect launching missiles in the mid-infrared range with telescopes. Since the discovery must be made from above against the warm earth background with a multitude of hard-to-detect false targets, these systems have to contend with a comparably low sensitivity. Due to the observation from above, the sensor also sees only the less bright and strongly fluctuating part of the engine jet. As a result, its measuring accuracy is limited to a few hundred meters, and can not be significantly improved due to the system. From the unpublished DE 10 201 1 010 337 is a camera system for detecting and tracking of moving objects located at a great distance from a high-flying aircraft, which is above the dense
Atmosphäre fliegt, bekannt. Dieses System hat den großen Vorteil, die startenden Raketen praktisch ausserhalb der Atmosphäre von unten gegen den Hintergrund des kalten Weltraums Atmosphere flies, known. This system has the great advantage of launching missiles practically out of the atmosphere from below against the background of cold space
beobachten zu können, und ausser Sternen und nahen Himmelskörpern, deren Position genau bekannt ist, keine weiteren Falschziele unterdrücken muss, um Fehlalarme zu vermeiden. to observe and, except for stars and nearby celestial bodies whose position is known exactly, must suppress no further false targets in order to avoid false alarms.
Ein weiterer großer Vorteil der Beobachtung von unten und von seitlich der  Another great advantage of the observation from below and from the side of the
Flugbahn aus ist, das von dort die Blickrichtung auf den über 2000°K heißen Kernbereich des Triebwerksstrahls direkt am Düsenaustritt frei ist. Dieser Trajectory is off, which is free from there the line of sight on the over 2000 ° K hot core area of the jet engine directly at the nozzle exit. This
Kernbereich des Strahles hat eine hunderfach höhere Leuchtdichte als der weiter entfernte Strahl und ist fest am Düsenaustritt fixiert, führt also keinerlei Fluktuation aus. Damit steht für die Bahnverfolgung eine ideale extrem helle ( 1 Megawatt/m2 ) Punktlichtquelle mit wenigen Metern Durchmesser zur Verfügung, die genau und stetig die Flugbahn der Rakete ausführt. Core area of the beam has a hundred times higher luminance than the more distant beam and is fixed at the nozzle exit, so does not cause any fluctuation. Thus, an ideal extremely bright (1 megawatt / m 2 ) point light source with a diameter of only a few meters is available for tracing the tracks, which accurately and steadily executes the trajectory of the rocket.
Aufgabe der Erfindung ist es, einen Sensor anzugeben, der diese Punktlichtquelle über eine Entfernung von bis zu 1500 km mit einer Genauigkeit von wenigen Metern orten und verfolgen kann.  The object of the invention is to provide a sensor that can locate and track this point light source over a distance of up to 1500 km with an accuracy of a few meters.
Dazu wird das folgende Multispektralkamerasystem für den Nahinfrarotbereich vorgeschlagen. Die Multispektralkamera kann mit Hilfe eines Motor getriebenen Filterrades mit mindestens 3 schmalbandigen ( z.B. 20 nm ) Transmissionsfiltern sequentiell Multispektralbilder ( z.B. bei 700nm, 800nm, und 950nm ) einer Szene aufnehmen. Daraus kann durch Umrechnung nach den Schwarzkörperstrahlungs- gesetzen ein Temperaturbild der Szene mit einer Auflösung von z.B. 50°K errechnet werden. Bei dieser Auflösung lässt sich erfind ungsgemäss der ungefähr 2300°K heiße Kernbereich einer Feststoffrakete und dessen charakteristische Form eindeutig von dem 2100°K heissen Kernbereich einer Flüssigkeitsrakete und einer abweichenden Form unterscheiden, und bei genügender optischer Auflösung der Kamera von 1 m bis 2m in 1000 km Entfernung auch die Größe des Kernbereiches und seine Temperaturverteilung messen. Mit diesen Daten können militärische Feststoffraketen von zivilen Flüssigkeitsraketen und verschiedene Raketentypen durch die Größe, Zahl und Anordnung der Triebwerke unterschieden werden.  For this purpose, the following multi-spectral camera system for the near-infrared range is proposed. The multispectral camera can sequentially acquire multispectral images (e.g., at 700nm, 800nm, and 950nm) of a scene by means of a motor driven filter wheel having at least 3 narrowband (e.g., 20nm) transmission filters. From this, by conversion according to the blackbody radiation laws, a temperature image of the scene with a resolution of e.g. 50 ° K can be calculated. According to the invention, the approximately 2300 ° K hot core area of a solid rocket and its characteristic shape can clearly be distinguished from the 2100 ° K hot core area of a liquid rocket and a different shape, and with sufficient optical resolution of the camera from 1 m to 2 m in 1000 km distance also measure the size of the core area and its temperature distribution. With this data, military solid rockets can be distinguished from civil liquid rockets and different rocket types by the size, number and arrangement of the engines.
Dieses Kamerasystem weist eine mit einer langbrennweitigen Kameraoptik versehene Kamera auf, die auf einer lagestabilisierten Plattform angeordnet ist. Diese Kamera ist mit einem Hochgeschwindigkeitsverschluss sowie einem ersten und einem zweiten Bildsensor versehen. Die von der Kameraoptik eingefangene Lichtstrahlung kann wahlweise auf den ersten oder den zweiten Bildsensor geführt werden, wobei einem der Bildsensoren eine weitere Tele-Optik zugeordnet ist. Die Kameraoptik weist weiter einen schwenkbaren Spiegel auf, mit welchem es möglich ist, durch Verschwenken des Spiegels ein Gebiet zeilenweise abzuscannen, wobei das eingefangene Bildsignal einem der Bildsensoren zugeführt wird. Wird bei diesem Scanvorgang ein Zielobjekt erkannt, so wird der Lichtstrahl auf den anderen Bildsensor umgelenkt, der dann zur Objektidentifizierung und gegebenenfalls zur Ziel Verfolgung eingesetzt wird. This camera system has a camera provided with a long-focal-length camera lens, which is arranged on a position-stabilized platform. This camera is equipped with a high-speed shutter and a first and a second image sensor. The captured by the camera optics light radiation can be performed either on the first or the second image sensor, wherein one of the image sensors is associated with a further telephoto optics. The camera optics further comprises a pivotable mirror, with which it is possible to scan an area line by line by pivoting the mirror, wherein the captured image signal is fed to one of the image sensors. If a target object is detected during this scanning process, the light beam is deflected to the other image sensor, which is then used for object identification and, if appropriate, for target tracking.
DARSTELLUNG DER ERFINDUNG PRESENTATION OF THE INVENTION
Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zur Bildaufbereitung anzugeben, mit welchem es möglich ist, auch über große Entfernung, Object of the present invention is to provide a method for image processing, with which it is possible, even over long distances,
beispielsweise von mehreren hundert Kilometern, insbesondere auf eine Entfernung von 100 km bis 500 km, erfasste Bildinformation so aufzubereiten, dass es möglich ist, mittels dieser aufbereiteten Bildinformation ein in der erfassten Szene For example, of several hundred kilometers, in particular to a distance of 100 km to 500 km, processed image information to be processed so that it is possible by means of this processed image information in the detected scene
enthaltenes Objekt mittels der aufbereiteten Bildinformation zu erkennen. Eine weitere Aufgabe besteht darin, unter Anwendung dieses Verfahrens zur to recognize contained object by means of the processed image information. Another object is to use this method for
Bildaufbereitung eine automatische Objekterkennung durchführen zu können.  Image processing to perform an automatic object detection.
Schließlich sind auch Beobachtungsvorrichtungen anzugeben, mit denen diese Verfahren realisierbar sind. Der auf das Verfahren zur Bildaufbereitung gerichtete Teil der Aufgabe wird gelöst mit den im Patentanspruch 1 angegebenen Verfahrensschritten. Finally, it is also necessary to specify observation devices with which these methods can be realized. The directed to the method for image processing part of the object is achieved with the method steps specified in claim 1.
Das so ausgestaltete erfindungsgemäße Verfahren weist die folgenden The inventive method designed in this way has the following
Verfahrensschritte auf: a) Erfassen von Bildinformation einer Szene als elektromagnetische Strahlung, wie beispielsweise Licht im sichtbaren Spektrum, im infraroten Spektrum oder im ultravioletten Spektrum, mittels einer optischen Einrichtung; b) Aufbereiten der in Schritt a) erhaltenen Bildinformation mittels einer Method steps for: a) detecting image information of a scene as electromagnetic radiation, such as light in the visible spectrum, in the infrared spectrum or in the ultraviolet spectrum, by means of an optical device; b) preparing the image information obtained in step a) by means of a
Bildaufbereitungseinrichtung zur Verbesserung des Signal-Rausch- Verhältnisses der Bildinformation, wobei die Aufbereitung in folgenden Teilschritten durchgeführt wird:  Image processing device for improving the signal-to-noise ratio of the image information, wherein the processing is carried out in the following sub-steps:
b1 ) Unterteilen eines die Bildinformation aufweisenden Rohbildes in Zeilen und Spalten zur Schaffung eines Rasterbildes;  b1) subdividing a raw image having the image information in rows and columns to create a raster image;
b2) Überlagern eines Rasterbildelements mit einem zentralen  b2) superimposing a raster image element with a central one
Rasterfilterelement eines eine ungerade Anzahl von Zeilen und eine ungerade Anzahl von Spalten aufweisenden Rasterfilters; b3) Bestimmen der Helligkeitswerte eines jeden der vom Rasterfilter  Raster filter element of a raster filter having an odd number of rows and an odd number of columns; b3) determining the brightness values of each of the raster filters
überdeckten Rasterbildelemente, wobei außer dem zentralen  covered raster image elements, except for the central
Rasterfilterelement jedes andere Rasterfilterelement eine individuelle Lichtdämpfungseigenschaft aufweist;  Rasterfilterelement each other raster filter element having an individual light attenuation property;
b4) Aufsummieren der in Schritt b3) bestimmten Helligkeitswerte zu einem Summen-Helligkeitswert und Zuordnen dieses Summen- Helligkeitswerts zu dem vom zentralen Rasterfilterelement überdeckten Rasterbildelement;  b4) summing the brightness values determined in step b3) into a sum brightness value and associating this sum brightness value with the raster pixel covered by the central raster filter element;
b5) Wiederholen der Schritte b2) bis b4) für alle verbleibenden  b5) repeating steps b2) to b4) for all remaining ones
Rasterbildelemente;  Raster image elements;
c) Erzeugen eines Ergebnisbildes mit derselben Rasterung wie das Rohbild aus den einzelnen im Schritt b) erhaltenen Summen-Helligkeitswerten der Rasterbildelemente. c) generating a result image with the same screening as the raw image from the individual sum brightness values of the raster image elements obtained in step b).
VORTEILE ADVANTAGES
Durch dieses erfindungsgemäße Bildaufbereitungsverfahren wird das Signal-zuRausch-Verhältnis des aufgenommenen Rohbildes verbessert, indem der By this image processing method according to the invention the signal-to-noise ratio of the recorded raw image is improved by the
Helligkeitsverlauf des Rohbildes geglättet wird. Weiterhin werden Rauschpixel, die aus dem Hintergrund des Rohbildes hervortreten, entfernt und somit ebenfalls das Bild geglättet. Der Helligkeitsverlauf im erhaltenen Ergebnisbild ist gegenüber dem Rohbild stetig und differenzierbar und der Bildkontrast ist verbessert, so dass ein im Rohbild enthaltenes Objekt im Ergebnisbild deutlicher und klarer erkennbar hervortritt. Eine bevorzugte Weiterbildung dieses erfindungsgemäßen Verfahrens zur Brightness gradient of the raw image is smoothed. Furthermore, noise pixels that emerge from the background of the raw image are removed, thus smoothing the image as well. The brightness curve in the resultant image is continuous and differentiable from the raw image and the image contrast is improved, so that an object contained in the raw image emerges more clearly and clearly in the resulting image. A preferred development of this method according to the invention for
Bildaufbereitung zeichnet sich dadurch aus, dass im Schritt a) die Bildinformation der Szene in mehr als einem elektromagnetischen Wellenlängenbereich erfasst wird, um so Rohbilder der Szene in unterschiedlichen Spektralbereichen zu erhalten; dass die Schritte b) und c) für alle Rohbilder der Szene durchgeführt werden, um Ergebnisbilder unterschiedlicher Spektralbereiche zu erhalten, und dass die Ergebnisbilder der unterschiedlichen Spektralbereiche durch Überlagerung zu einem Multispektral-Ergebnisbild zusammengefasst werden. Image processing is characterized in that in step a) the image information of the scene is detected in more than one electromagnetic wavelength range in order to obtain raw images of the scene in different spectral ranges; that the steps b) and c) are performed for all raw images of the scene in order to obtain result images of different spectral regions, and that the result images of the different spectral regions are combined by superimposition into a multispectral result image.
Das Erfassen der Szene in unterschiedlichen Spektralbereichen durch sequentielle Aufnahme von Bildern mit schmalbandigen ( z.B. 20 nm) Filtern und das Detecting the scene in different spectral regions by sequentially capturing images with narrowband (e.g., 20 nm) filters and the
Zusammensetzen der jeweils erfindungsgemäß aufbereiteten Rohbilder dieser unterschiedlichen Spektralbereiche zu einem Multispektral-Ergebnisbild verbessert die Aussagekraft des erhaltenen Bildergebnisses. Assembling the raw images of these different spectral regions which have been prepared in accordance with the invention to form a multi-spectral result image improves the informative value of the resulting image result.
Dies ist insbesondere dann der Fall, wenn die einzelnen Ergebnisbilder  This is especially the case when the individual result images
unterschiedlicher Spektralbereiche jeweils monochrom in unterschiedlichen Farben eingefärbt zum Multispektral-Ergebnisbild zusammengefasst werden. Ein different spectral areas each monochrome colored in different colors are combined to multispectral result image. One
Multispektralbild mit passend zu der Temperatur des beobachteten Körpers ( z.B. 2300°K ) auf der kurzwelligen Flanke der Schwarzkörperstrahlungskurve gewählten Filtern kann zur Umrechnung des Multispektralfarbbildes in ein Temperaturbild benutzt werden. Dieses Temperaturbild ermöglicht es, einen kleinen stabilen Kerntemperaturbereich innerhalb eines wesentlich größeren, möglicherweise örtlich auch helleren, stark fluktuirenden , Hintergrundhelligkeitsfeldes, wie z.B. eines Raketenfeuerschweifes zu finden und zu verfolgen. A multi-spectral image with filters selected to match the temperature of the observed body (e.g., 2300 ° K) on the short-wave flank of the blackbody radiation curve can be used to convert the multispectral color image to a temperature image. This temperature image makes it possible to have a small stable core temperature range within a much larger, possibly locally brighter, strongly fluctuating, background brightness field, such as, e.g. to find and track a missile fire tail.
Vorteilhaft ist dabei, wenn das Erfassen der Bildinformation der Szene in den unterschiedlichen Spektralbereichen unter Verwendung unterschiedlicher It is advantageous if the acquisition of the image information of the scene in the different spectral ranges using different
Spektralbereichsfilter in kurzer zeitlicher Aufeinanderfolge mittels einer Spectral range filter in a short temporal succession by means of a
Hochgeschwindigkeitskamera erfolgt. Dadurch wird es möglich, im Vergleich zur Bewegung des beobachteten Objekts quasi-zeitsynchrone Rohbilder der Szene in unterschiedlichen Spektralbereichen aufzunehmen, die sich aufgrund der äußerst kurzen zeitlichen Aufeinanderfolge der jeweiligen Aufnahmen nur unwesentlich bezüglich der Position des Objekts im Bild unterscheiden, so dass diese Aufnahmen problemlos durch Überlagerung zu dem Multispektral-Ergebnisbild High speed camera done. This makes it possible to record quasi-time-synchronous raw images of the scene in different spectral ranges compared to the movement of the observed object, which only insignificantly due to the extremely short temporal succession of the respective images differ with respect to the position of the object in the image, so that these shots easily by overlaying the multi-spectral result image
zu sammengefasst werden können. Der auf das Verfahren zur automatischen Objekterkennung gerichtete Teil der Aufgabe wird gelöst durch das Verfahren mit den Merkmalen des Patentanspruchs 4. Dabei werden unter Anwendung des erfindungsgemäßen Verfahrens zur can be summarized. The directed to the method for automatic object detection part of the object is achieved by the method having the features of claim 4. It will be using the method according to the invention for
Bildaufbereitung folgende Verfahrensschritte durchgeführt: das Erfassen des Szene im Schritt a) wird in unterschiedlichen Drehwinkeln um die optische Achse der optischen Einrichtung durchgeführt; Image processing the following steps performed: the detection of the scene in step a) is performed at different angles of rotation about the optical axis of the optical device;
zu jedem Drehwinkel wird ein Ergebnisbild gemäß den Schritten des erfindungsgemäßen Verfahrens zur Bildaufbereitung erzeugt;  for each rotation angle, a result image is generated according to the steps of the method according to the invention for image processing;
die einzelnen Ergebnisbilder werden mit in einer Objekte-Datenbank gespeicherten Musterbildern einzelner Objekte verglichen; und  the individual result images are compared with sample images of individual objects stored in an object database; and
jenes Musterbild mit der geringsten Abweichung von einem oder mehreren der Ergebnisbilder identifiziert das in der Szene enthaltene Objekt und bestimmt die Position des Objekts im Ergebnisbild.  that pattern image with the least deviation from one or more of the result images identifies the object contained in the scene and determines the position of the object in the result image.
Mittels dieses automatischen Objekterkennungsverfahrens wird unter Anwendung des erfindungsgemäßen Bildaufbereitungsverfahrens eine automatische By means of this automatic object recognition method using the image processing method according to the invention an automatic
Objektidentifikation ermöglicht. Des Weiteren kann mittels dieses automatischen Objekterkennungsverfahrens die Position des Objekts im Ergebnisbild bestimmt werden und damit kann bereits bei einer einzigen erfassten und analysierten Szene ein Richtungsvektor der Bewegung des Objekts (beispielsweise einer Rakete) mit größere Genauigkeit als nach dem Stand der Technik vorhergesagt werden. Object identification enabled. Furthermore, by means of this automatic object recognition method, the position of the object in the result image can be determined, and thus a directional vector of the movement of the object (eg a rocket) can already be predicted with greater accuracy than in the prior art in a single scene detected and analyzed.
Eine bevorzugte Weiterbildung dieses Objekterkennungsverfahrens gemäß der Erfindung zeichnet sich dadurch aus, dass die Bestimmung der Position des Objekts im Ergebnisbild durch die Bestimmung der übereinstimmenden A preferred development of this object recognition method according to the invention is characterized in that the determination of the position of the object in the result image by the determination of the matching
Rasterelemente des Ergebnisbildes mit entsprechenden Rasterelementen des Musterbildes erfolgt. Der auf die Beobachtungsvorrichtung gerichtete Teil der Aufgabe wird gelöst durch die Beobachtungsvorrichtung mit den Merkmalen des Patentanspruchs 6 und auch durch die Beobachtungsvorrichtung mit den Merkmalen des Patentanspruchs 7. Während die Beobachtungsvorrichtung mit den Merkmalen des Patentanspruchs 6 ausgebildet ist, um das erfindungsgemäße Verfahren zur Bildaufbereitung zu realisieren, ist die Beobachtungsvorrichtung gemäß Anspruch 7 dazu ausgebildet, unter Anwendung des erfindungsgemäßen Verfahrens zur Bildaufbereitung das erfindungsgemäße Verfahren zur automatischen Objekterkennung durchzuführen. Raster elements of the result image with corresponding raster elements of the pattern image is done. The directed to the observation device part of the object is achieved by the observation device with the features of claim 6 and also by the observation device with the features of claim 7. While the observation device is formed with the features of claim 6, to the inventive method for image processing realize, the observation device according to claim 7 is adapted to perform the inventive method for automatic object recognition using the method according to the invention for image processing.
Vorteilhaft ist bei beiden erfindungsgemäßen Beobachtungsvorrichtungen eine Ausführungsform, bei der die Bildaufbereitungseinrichtung ein Bildrasterungsmodul und ein Rasterfiltermodul aufweist. In einer ersten Variante der erfindungsgemäßen Beobachtungsvorrichtung weist das Bildrasterungsmodul eine matrixartige Anordnung von Lichtleitelementen auf, die zwischen der optischen Einrichtung und einem für die erfasste Strahlung empfindlichen Sensor angeordnet sind. Dabei ist zumindest einem Teil der In both observation devices according to the invention, an embodiment in which the image processing device has a screen-rastering module and a raster filter module is advantageous. In a first variant of the observation device according to the invention, the image screening module has a matrix-like arrangement of light-guiding elements which are arranged between the optical device and a sensor sensitive to the detected radiation. It is at least a part of
Lichtleitelemente jeweils ein helligkeitsreduzierendes Rasterfilterelement des Rasterfiltermoduls zugeordnet. Die optische Einrichtung ist so ausgestaltet, dass sie die erfasste Bildinformation in einer Eintrittsebene des Bildrastungsmoduls als Rohbild abbildet, und sie ist weiterhin so ausgestaltet, dass das Rohbild bezüglich der Eintrittsebene des Bildrastungsmoduls auf der Eintrittebene verschiebbar ist. Zudem ist eine Rechnereinheit vorgesehen, die vom Sensor ein Helligkeitssignal erhält und auf der eine Software abläuft, die den Verfahrensschritt c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert. Diese vorteilhafte Ausführungsform der Beobachtungsvorrichtung setzt die erfindungsgemäßen Verfahrenschritte in optisch-mechanischer Weise um. Wenn in diesem Dokument von "Helligkeit" gesprochen wird, so ist dieser Begriff nicht auf das Spektrum des sichtbaren Lichts beschränkt, sondern er umfasst auch die Intensität der Strahlung in einem nicht-sichtbaren Spektrum wie beispielsweise im Infrarotspektrum oder im Ultraviolettspektrum, ohne jedoch darauf beschränkt zu sein. Light guide each associated with a brightness-reducing raster filter element of the raster filter module. The optical device is designed such that it images the acquired image information in a plane of entry of the image ram module as a raw image, and it is further configured such that the raw image is displaceable with respect to the entrance plane of the image raster module on the entry level. In addition, a computer unit is provided which receives a brightness signal from the sensor and on which runs a software which implements method step c) of claim 1 and preferably the method steps of one of claims 2 to 5. This advantageous embodiment of the observation device implements the method steps according to the invention in an opto-mechanical manner. Whenever "brightness" is used in this document, it is not limited to the spectrum of visible light, but also includes the intensity of the radiation in a non-visible spectrum such as in the infrared spectrum or in the ultraviolet spectrum, but without being limited thereto.
Alternativ können die erfindungsgemäßen Verfahrensschritte auch in Software implementiert sein, wozu sich die dazu geeignete Beobachtungsvorrichtung dadurch auszeichnet, dass der optischen Einrichtung ein Bildsensor nachgeordnet ist, dass die optische Einrichtung so ausgestaltet ist, dass sie die erfasste Bildinformation in einer Sensorebene des Bildsensors abbildet, dass eine Rechnereinheit vorgesehen ist, die vom Bildsensor ein Bildsignal erhält, und dass in der Rechnereinheit eine Software abläuft, die die Verfahrensschritte b) und c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert, wobei das Bildrasterungsmodul und das Rasterfiltermodul als Subroutine der Software ausgebildet sind. Diese vorteilhafte Ausführungsform der Beobachtungsvorrichtung setzt die erfindungsgemäßen Verfahrensschritte in optisch-elektronischer Weise um. Alternatively, the method steps according to the invention can also be implemented in software, for which purpose the suitable observation device is characterized in that a visual sensor is arranged downstream of the optical device, that the optical device is designed such that it images the acquired image information in a sensor plane of the image sensor a computer unit is provided, which receives an image signal from the image sensor, and that software runs in the computer unit which implements the method steps b) and c) of claim 1 and preferably the method steps of one of claims 2 to 5, wherein the image rasterization module and the raster filter module are designed as a subroutine of the software. This advantageous embodiment of the observation device implements the method steps according to the invention in an optoelectronic manner.
Die zusammengesetzten Multispektralbilder werden erst nach der Aufbereitung der Roheinzelbilder aus einer größeren Zahl von überlagerten aufbereiteten The composite multispectral images are processed after the preparation of the raw single images from a larger number of superimposed
Einzelbildern, die in verschiedenen Spektralfarben aufgenommen worden sind, in der Rechnereinheit rechnerisch zusammengesetzt. Das zusammengesetzte Frames, which have been recorded in different spectral colors, computationally assembled in the computer unit. The compound
Multispektralbild besitzt dann bei einer ausreichenden Zahl von überlagerten Einzelbildern durch die Mittelung über die vielen Einzelbilder ein viel besseres Signal-zu-Stör-Verhältnis als die Rohbilder von vorzugsweise über 100. Multispectral image then has a much better signal-to-noise ratio than the raw images of preferably more than 100 with a sufficient number of superimposed individual images by averaging over the many frames.
Die zusammengesetzten Multispektralbilder werden bevorzugt mit einem The composite multispectral images are preferably with a
Multispektral-Bildauswertungs- und Identifizierungsverfahren nach Fig. 3 oder Fig. 4 in der Bildauswerteeinrichtung 25, 125 ausgewertet. Dabei wird vorzugsweise zuerst eine Beobachtung des Zielverhaltens vorgenommen und insbesondere die Anzahl und die Bahnkurven der sichtbaren Objekte werden bestimmt. Dann wird eine Datei aller Flugobjekte und ihrer Flugbahnen angelegt, die eine sichere Multispectral image evaluation and identification method according to FIG. 3 or FIG. 4 evaluated in the image evaluation device 25, 125. In this case, an observation of the target behavior is preferably carried out first and, in particular, the number and the trajectories of the visible objects are determined. Then a file of all flying objects and their trajectories is created, which is a safe
Wiedererkennung aller Objekte bei Folgemessungen gestattet und eine Recognition of all objects allowed in subsequent measurements and one
Extrapolation ihrer Flugbahnen in die Zukunft erlaubt, insbesondere der Berechnung möglicher Einschlagpunkte des Flugobjekts am Ende der Flugbahn. Aus den zusammengesetzten Multispektralbildern kann außerdem das Verhalten der Objekte (Abtrennung einer Raketen-Oberstufe, Ausstoßen von Täuschkörpern, Flugmanöver eines Sprengkopfes) im zeitlichen Verlauf beobachtet und analysiert werden. Extrapolation of their trajectories into the future allowed, in particular the calculation possible impact points of the flying object at the end of the trajectory. The composite multispectral images can also be used to observe and analyze the behavior of the objects (separation of a missile upper stage, ejection of decoys, flight maneuvers of a warhead) over time.
Die zusammengesetzten Multispektralbilder werden weiterhin in einer The composite multispectral images will continue to be in one
multispektralen Zielbilderkennung nach Fig. 3 oder Fig. 4 einem Vergleich mit einer mitgeführten und in der Speichereinrichtung 29, 129 abgelegten multispectral target image recognition of FIG. 3 or FIG. 4 a comparison with a carried and stored in the memory device 29, 129
Referenzzielbilddatenbank unterzogen. Die Zielbilderkennung kann so abgebildete Ziele als Zielobjekte eines bestimmten Typs wiedererkennen und folglich Subjected to reference target image database. The target image recognition can thus recognize imaged targets as target objects of a certain type, and consequently
identifizieren. Die Zielbilderkennung kann zuverlässiger und trennschärfer arbeiten wenn die aufaddierten Multispektralbilder vor der Bearbeitung einer Aufbereitung in mehreren Stufen unterzogen werden. Dazu werden die zusammengesetzten Multispektralbilder zunächst identify. The target image recognition can work more reliably and sharper when the added multispectral images are subjected to multi-stage rendering prior to processing. For this, the composite multispectral images are first
erfindungsgemäß in eine normierte Form überführt, indem zunächst für jedes Pixel die orthogonal vektoriell addierte Gesamthelligkeit als Helligkeitswert gebildet wird, und anschließend alle Farbkomponenten mit der Gesamthelligkeit normiert werden. Der gesamte Farbvektor besteht dann aus der Helligkeit und den normierten According to the invention, a normalized form is converted by first forming the orthogonal vectorially added total brightness as the brightness value for each pixel, and then normalizing all the color components with the total brightness. The entire color vector then consists of the brightness and the normalized
Farbwerten. Damit kann ein Farbkoordinatensystem mit beliebig vielen Color values. This can be a color coordinate system with any number
Spektralkomponenten definiert werden und in diesem System können alle Spectral components can be defined and in this system can all
Farboperationen multispektral ausgeführt werden, die im RGB System nur in drei Farben definiert sind. Für alle Farbkomponenten und die Helligkeit jedes Bildpixels führt die Color operations are performed multispectrum, which are defined in the RGB system only in three colors. For all color components and the brightness of each image pixel, the
Bildaufbereitung auf digitaler Basis nach Fig. 2 eine Operation aus, bei der das Bild gleichzeitig geglättet und differenzierbar gemacht wird, bei der nach der Mittelung über mehrere Bilder noch vorhandene Störpixel entfernt und geglättet werden, und bei der Helligkeitsübergänge und Kanten akzentuiert werden, so dass das  FIG. 2 shows an operation in which the image is simultaneously smoothed and differentiated, in which after the averaging over a plurality of images still existing interference pixels are removed and smoothed, and in which brightness transitions and edges are accentuated, so that the
Ergebnisbild schärfer, kontrastreicher und klarer in den Farben wird und Result image sharper, more contrast and clearer in the colors and
zuverlässiger ausgewertet werden kann. Dies wird durch Transformation aller Farbkomponenten und der Helligkeitskomponente des normierten Bildes mit der im gezeigten Beispiel 5 x 5 Pixel großen Filtermatrix des Rasterfilters 122 in der Vorrichtung zur Aufbereitung von Bildern mit schlechtem Signal-zu-Stör-Verhältnis auf digitaler Basis nach Fig. 2 erreicht. Vorzugsweise wird das Bild auch einer affinen Farbtransformation unterzogen, bei der das Ziel charakterisierende Spektralkomponenten gedehnt und damit besser auswertbar werden und untypische Spektralkomponenten gestaucht werden. Das ermöglicht bei der Korrelation der Ergebnisbilder mit den in den Bildern versteckten echten Zielobjekten in der Zielbilderkennung eine höhere Trennschärfe zwischen Echtzielen und Falschzielen, die mit Echtzielen verwechselt werden könnten, als ohne diese Bildaufbereitung. can be evaluated more reliably. This is done by transforming all the color components and the luminance component of the normalized image with the in the example shown 5 × 5 pixel filter matrix of the raster filter 122 in the apparatus for processing images with poor signal-to-noise ratio on a digital basis according to Fig. 2 achieved. Preferably, the image is also subjected to an affine color transformation in which the target characterizing spectral components are stretched and thus better evaluated and atypical spectral components are compressed. This allows the correlation of the result images with the real target objects hidden in the images in the target image recognition a higher selectivity between real targets and false targets, which could be confused with real targets, as without this image processing.
Die Multispektrale Bilderkennung kann entweder mit der Vorrichtung zur The multispectral image recognition can be used either with the device for
Multispektralen Bilderkennung auf optischer Basis nach Fig. 3 oder mit höherer Genauigkeit mit der Vorrichtung zur Multispektralen Bilderkennung auf digitaler Basis nach Fig. 4 ausgeführt werden. 3 or with higher accuracy with the apparatus for multispectral image recognition on a digital basis according to FIG. 4.
Bei der Vorrichtung auf optischer Basis (gemäß Fig. 3) erzeugt das Teleskop 1 10 über den Umlenkspiegel 112 ein reales 25 x 25 Pixel großes Zielbild eines entfernten Zieles in der Ebene 121 der Frontfläche des optischen 5 x 5 In the optical-based device (according to FIG. 3), the telescope 110 generates, via the deflection mirror 112, a real 25 × 25 pixel target image of a distant target in the plane 121 of the front surface of the optical 5 × 5
Lichtleiterbündels der Bilderfassungseinrichtung 120, das dieselbe Fläche einnimmt wie 5 x 5 Pixel des realen Zielbildes. Der Scanspiegel 1 12 lenkt das Zielbild horizontal und vertikal so ab, dass jedes Mittelpixel jedes 5 x 5 Pixelblockes sequentiell über das mittlere Lichtleitelement des 5 x 5 optischen Lichtleiterbündels streicht. Die fünfundzwanzig Werte für die 5 x 5 Pixelblöcke jedes 25 x 25 Pixel großen Bildes werden für alle Spektralbereiche in der Rechnereinheit 126 abgespeichert. Dies wird für zwölf Drehlagen über 360° des 25 x 25 Pixelbildes wiederholt. Suchbereiche aus 15 x 15 Pixelblöcken aus den Zielbildern werden für den Wert jedes Mittelpixels jedes 5x5 Pixelblockes mit den gesuchten 15 x 15 Pixel großen Referenzbildern verglichen, wobei die Differenzen der jeweils neun  Optical fiber bundle of the image capture device 120, which occupies the same area as 5 x 5 pixels of the real target image. The scanning mirror 1 12 deflects the target image horizontally and vertically so that each center pixel of each 5 x 5 pixel block sweeps sequentially over the central light guide of the 5 x 5 optical fiber bundle. The twenty-five values for the 5 x 5 pixel blocks of each 25 x 25 pixel image are stored in the computing unit 126 for all spectral regions. This is repeated for twelve rotational positions over 360 ° of the 25 x 25 pixel image. Search areas of 15x15 pixel blocks from the target images are compared for the value of each center pixel of each 5x5 pixel block with the sought after 15x15 pixel reference images, with the differences of each nine
Koeffizientenwerte von Eingangsbildsuchbereich und aktuellem Referenzbild gebildet werden. Die Position und die Drehlage bei der die kleinste Differenzsumme auftritt und bei der diese einen bestimmten Minimalwert unterschreitet wird als Position und Drehlage eines gefundenen Zieles der aktuellen Referenzbildklasse registriert. Bildteile, die aus dem Bildfeld ragen werden nicht berücksichtigt. Die Positionsauflösung der Bilderkennung beträgt dabei fünf Pixel horizontal und vertikal. Coefficient values of input image search area and current reference image are formed. The position and the rotational position at which the smallest difference sum occurs and at which it falls below a certain minimum value as Position and orientation of a found target of the current reference picture class registered. Image parts that protrude from the image field are not considered. The position resolution of the image recognition is five pixels horizontally and vertically.
Bei der Vorrichtung auf digitaler Basis (Fig. 4) erzeugt das Teleskop 110 über den Umlenkspiegel 112 ein reales 25 x 25 Pixel großes Zielbild eines entfernten beleuchteten Zieles in der Bildebene der beispielsweise eine NIR-(Nahinfrarot)- Kamera aufweisenden Bilderfassungseinrichtung 120. Die Kamera setzt das Lichtsignal um in ein digitales Multispektralbild mit hoher Auflösung. Für die multispektrale Bilderkennung werden in dem Suchbild (25 x 25 Pixel groß) für jede Suchpixelposition Kennwerte einer erfindungsgemäßen Bewertungsfunktion berechnet, wie oben beschrieben worden ist. Durch die beschriebene Ausbildung der Bewertungsfunktion kann die Anzahl der zu untersuchenden Drehlagen ohne Verlust an Trennschärfe auf zwölf begrenzt werden. In the digital-based device (FIG. 4), the telescope 110 generates a real 25x25 pixel target image of a remote illuminated target in the image plane of the image capture device 120 comprising, for example, an NIR (Near Infrared) camera via the deflection mirror 112. The camera converts the light signal into a digital multispectral image with high resolution. For multispectral image recognition, characteristic values of a weighting function according to the invention are calculated in the search image (25 × 25 pixels in size) for each search pixel position, as described above. Due to the described design of the evaluation function, the number of rotational positions to be examined can be limited to twelve without loss of selectivity.
Mit einem Nahinfrarot-Sensorsystem, das nach einem der vorgenannten Beispiel ausgestaltet ist, können in besonders vorteilhafter Weise eine Zielauffassung, eine Flugbahnverfolgung, eine Flugbahnvermessung und eine Zielbeobachtung und Zielidentifizierung von startenden Raketen auch nach Triebwerksbrennschluss auf Entfernungen bis zu 500 km durchgeführt werden. With a near-infrared sensor system configured according to one of the aforementioned examples, target detection, trajectory tracking, trajectory measurement and target observation and target identification of launching missiles can be performed even after engine burnout at distances up to 500 km.
Bevorzugte Ausführungsbeispiele der Erfindung mit zusätzlichen Preferred embodiments of the invention with additional
Ausgestaltungsdetails und weiteren Vorteilen sind nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben und erläutert. Design details and other advantages are described below with reference to the accompanying drawings and explained.
KURZE BESCHREIBUNG DER ZEICHNUNGEN BRIEF DESCRIPTION OF THE DRAWINGS
Es zeigt: eine schematische Darstellung einer ersten Beobachtungsvorrichtung zur Durchführung des erfindungsgemäßen It shows: a schematic representation of a first observation device for carrying out the inventive
Bildaufbereitungsverfahrens; Fig. 1A eine Rasterfiltermatrix der Beobachtungsvorrichtung gemäß Fig. 1 ; eine zweite Ausführungsform einer Beobachtungsvorrichtung zur Durchführung des erfindungsgemäßen Bildaufbereitungsverfahrens Fig. 2A eine Rasterfiltermatrix der Beobachtungsvorrichtung gemäß Fig. 2;  Imaging procedure; FIG. 1A shows a raster filter matrix of the observation device according to FIG. 1; FIG. a second embodiment of an observation device for carrying out the image processing method according to the invention; FIG. 2A shows a raster filter matrix of the observation device according to FIG. 2;
Fig. 3 eine erste Ausführungsform einer Beobachtungsvorrichtung zur Fig. 3 shows a first embodiment of an observation device for
Durchführung des erfindungsgemäßen automatischen  Implementation of the automatic according to the invention
Objekterkennungsverfahrens; und  Object recognition method; and
Fig. 4 eine zweite Ausführungsform einer Beobachtungsvorrichtung zur Fig. 4 shows a second embodiment of an observation device for
Durchführung des erfindungsgemäßen automatischen  Implementation of the automatic according to the invention
Objekterkennungsverfahrens. DARSTELLUNG VON BEVORZUGTEN AUSFÜHRUNGSBEISPIELEN  Object recognition method. PRESENTATION OF PREFERRED EMBODIMENTS
Fig. 1 zeigt eine erfindungsgemäße Beobachtungsvorrichtung mit einer optischen Einrichtung 1 und einer Bildaufbereitungseinrichtung 2. Die optische Einrichtung 1 weist eine Teleskopeinheit 10 mit einem langbrennweitigen Objektiv auf, die in der Figur nur schematisch dargestellt ist. Die Teleskopeinheit 10 fängt 1 shows an observation device according to the invention with an optical device 1 and an image processing device 2. The optical device 1 has a telescope unit 10 with a long-focal-length objective, which is shown only schematically in the figure. The telescope unit 10 begins
elektromagnetische Strahlung S einer beobachteten Szene im sichtbaren Spektrum des Lichts und außerhalb des sichtbaren Spektrums des Lichts (beispielsweise Infrarot- und/oder Ultraviolett-Strahlung) ein. Die vom Teleskop 10 eingefangene Strahlung S wird auf einen bewegbaren electromagnetic radiation S of an observed scene in the visible spectrum of the light and outside the visible spectrum of the light (for example, infrared and / or ultraviolet radiation). The captured by the telescope 10 radiation S is moved to a
Umlenkspiegel 12 geleitet, der von einem in Fig. 1 nur schematisch dargestellten Antrieb 14 zur Durchführung einer zweidimensionalen Scan-Bewegung antreibbar ist. Die vertikale Auslenkung des Umlenkspiegels 12 erfolgt in einem Winkelbereich, der in Fig. 1 beispielhaft durch die obere Grenzlinie a eines Mittelstrahls SM und durch die unter Grenzlinie a' sowie durch eine erste seitliche Grenzlinie b und eine zweite seitliche Grenzlinie b' des Mittelstrahls SM definiert ist. In diesem von den Grenzlinien a, a' und b, b' aufgespannten Bereich Z führt der Umlenkspiegel 12 eine zeilenweise Abtastung der vom Teleskop 10 eingefangenen Strahlung S durch und projiziert dabei jeweils einen Teil des durch den Bereich Z bestimmten Zielbilds Z' auf eine Eintrittsebene E eines Bildrasterungsmoduls 20 der Deflection mirror 12 passes, which is driven by a drive 14 shown only schematically in Fig. 1 for performing a two-dimensional scan movement. The vertical deflection of the deflection mirror 12 takes place in an angular range, which is defined in Fig. 1 by way of example by the upper boundary line a of a central beam SM and by the lower boundary line a 'and by a first lateral boundary line b and a second lateral boundary line b' of the center beam SM. In this area Z spanned by the boundary lines a, a 'and b, b', the deflection mirror 12 performs line-by-line scanning of the radiation S captured by the telescope 10 and in each case projects a portion of the target image Z 'determined by the area Z onto an entrance plane E of a rasterization module 20 of
Bildaufbereitungseinrichtung 2. Das Bildrasterungsmodul 20 weist eine matrixartige Anordnung von in Fig. 1 nicht im Detail dargestellten Lichtleitelementen auf, die mit ihrem einen Ende in der Eingangsebene E münden. Am anderen Ende der Lichtleitelemente ist ein ebenfalls matrixartiges Rasterfilter 22 vorgesehen, das in Fig. 1 nur schematisch dargestellt ist und das im Querschnitt in Fig. 1 A als Filtermatrix wiedergegeben ist. Dieses Rasterfilter 22 enthält ein zentrales Rasterfilterelement 22" und eine Mehrzahl von dieses umgebenden weiteren einzelnen Rasterfilterelementen 22', die jeweils einem der das zentrale Lichtleitelement umgebenden weiteren Lichtleitelemente zugeordnet sind. Im gezeigten Beispiel besteht das Bildrasterungsmodul 20 somit aus fünf mal fünf (also fünfundzwanzig) Lichtleitelementen, denen jeweils ein Rasterfilterelement 22', 22" zugeordnet ist. Image processing device 2. The image screening module 20 has a matrix-like arrangement of light-guiding elements, not shown in detail in FIG. 1, which open at one end in the input plane E. At the other end of the light-guiding elements, a likewise matrix-type raster filter 22 is provided, which is shown only schematically in FIG. 1 and which is reproduced in cross-section in FIG. 1A as a filter matrix. This raster filter 22 contains a central raster filter element 22 "and a plurality of further individual raster filter elements 22 'surrounding it, which are each assigned to one of the further light-guiding elements surrounding the central light-guiding element. In the example shown, the rasterizing module 20 thus consists of five by five (ie twenty-five) Light guide, each of which a raster filter element 22 ', 22 "is assigned.
In Fig. 1A sind einem jeweiligen weiteren Rasterfilterelement 22' Faktoren zugeordnet, die die Lichtdurchlässigkeit des einzelnen Rasterfilterelements wiedergeben. Demnach besitzt das zentrale Rasterfilterelement 22", welches dem zentralen Lichtleitelement zugeordnet ist, eine Lichtdurchlässigkeit von 1 ,00, was 100 % entspricht. Das durch das zentrale Lichtleitelement geführte Licht wird also vom Rasterfilter 22 nicht gedämpft. Im Gegensatz dazu werden die um das zentrale Lichtleitelement herum angeordneten weiteren Lichtleitelemente mit einer lichtdämpfenden Filterwirkung beaufschlagt, wobei die in Fig. 1A angegebenen Faktoren folgende Bedeutung haben: In Fig. 1A, a respective further raster filter element 22 'is assigned factors which reflect the light transmittance of the individual raster filter element. Accordingly, the central raster filter element 22 ", which is assigned to the central light-guiding element, has a light transmittance of 1.00, which corresponds to 100% .The light guided through the central light-guiding element is thus not attenuated by the raster filter 22. In contrast, the light is transmitted around the central light-emitting element Light guiding element arranged around further light-guiding elements with a light-damping filter effect applied, wherein the factors indicated in Fig. 1A have the following meaning:
0,03 entspricht 3 % Lichtdurchlässigkeit, 0.03 corresponds to 3% light transmission,
0,06 entspricht 6 % Lichtdurchlässigkeit, 0.06 corresponds to 6% light transmission,
0,09 entspricht 9 % Lichtdurchlässigkeit, 0,12 entspricht 12 % Lichtdurchlässigkeit, 0.09 corresponds to 9% light transmission, 0.12 corresponds to 12% light transmission,
0,15 entspricht 15 % Lichtdurchlässigkeit, 0.15 corresponds to 15% light transmission,
0,21 entspricht 21 % Lichtdurchlässigkeit. Das von den einzelnen Lichtleitelementen des Bildrasterungsmoduls 20 durch das Rasterfilter 22 abgegebene Licht trifft auf einen Sensor 24, der beispielsweise von einer Fotolichtverstärkerröhre gebildet ist und welcher das Summensignal der durch die einzelnen Rasterfilterelemente austretenden Lichtstrahlung bildet. Dieses Helligkeits- oder Strahlungsintensitäts-Summensignal Ss wird vom Sensor 24 an eine Rechnereinheit 26 der Bildaufbereitungseinrichtung 2 weitergeleitet. 0.21 corresponds to 21% light transmission. The light emitted by the individual light guide elements of the image screening module 20 through the raster filter 22 impinges on a sensor 24, which is formed, for example, by a photo light amplifier tube and which forms the sum signal of the light radiation emerging through the individual raster filter elements. This brightness or radiation intensity sum signal Ss is forwarded by the sensor 24 to a computer unit 26 of the image processing device 2.
Durch die Scanbewegung des Umlenkspiegels 12 wird somit die einfallende By the scanning movement of the deflecting mirror 12 thus the incident
Strahlung S pixelweise vom Sensor 24 erfasst und der Rechnereinheit 26 als Strahlungsintensitäts-Summensignal Ss zugeführt. Dabei wird zu jedem Zielbildpixel die Summe der mit den Filterfaktoren gewichteten Strahlungsintensitäten der Nachbarpixel der in Fig. 1A gezeigten Matrix vom Sensor 24 erfasst, wobei das jeweilige Zielbildpixel das zentrale Element der Matrix bildet. Dabei entspricht ein Zielbildpixel einem Rasterelement des Rasters der Lichtleitelemente Radiation S pixel by pixel detected by the sensor 24 and the computer unit 26 as a radiation intensity sum signal Ss supplied. In this case, the sum of the radiation intensities of the neighboring pixels of the matrix shown in FIG. 1A is detected by the sensor 24 for each target image pixel, wherein the respective target image pixel forms the central element of the matrix. In this case, a target image pixel corresponds to a grid element of the grid of the light guide elements
beziehungsweise des Rasterfilters. Jedem Zielbildpixel werden somit die or the raster filter. Each target image pixel thus becomes the
entsprechend der in Fig. 1A gezeigten Helligkeitsdämpfungsmatrix gewichteten Helligkeiten der das zentrale Pixelelement (Zielbildpixel) umgebenden Pixel entsprechend der Matrix summarisch zugeordnet, so dass hierdurch eine in accordance with the brightness attenuation matrix shown in FIG. 1A, the luminances of the pixels surrounding the central pixel element (target image pixel) are summarily assigned according to the matrix, so that a
entsprechend den Dämpfungsfaktoren der Matrix gewichtete Lichtverstärkung für das Zielbildpixel erfolgt. in accordance with the attenuation factors of the matrix weighted light gain for the target image pixel is done.
In der Rechnereinheit 26 werden nach einem vollständig durchgeführten Scan des Umlenkspiegels 12 alle gespeicherten Summen-Helligkeitswerte der einzelnen Zielbildpixel wieder zu einem Ergebnisbild zusammengefasst, das dann über eine Ausgabeschnittstelle 27 beispielsweise an einer Anzeigeeinrichtung 28 ausgegeben wird. Die Bildung des Ergebnisbildes aus den gespeicherten Summen- Helligkeitswerten der einzelnen Zielbildpixel erfolgt derart, dass der gespeicherte Summen-Helligkeitswert eines Zielbildpixels derselben Position im Ergebnisbild zugewiesen wird, den das Zielbildpixel im Zielbild eingenommen hat. Dieses ausgegebene Ergebnisbild ist durch die beschriebene Lichtverstärkung nicht nur heller als das ursprünglich auf die Eingangsebene E projizierte Zielbild Z', sondern aufgrund der unterschiedlichen Gewichtung der jeweiligen Nachbarpixel gemäß der Matrix aus Fig. 1A ist dieses Ergebnisbild auch geglättet und enthält keine Rauschpixel mehr, die aus dem Hintergrund hervortreten. Dadurch ist der Helligkeitsverlauf des Ergebnisbildes stetig, so dass das Ergebnisbild differenzierbar ist. Der Bildkontrast ist zudem durch das beschriebene Verfahren verbessert. Zwar ist im gezeigten Beispiel die Helligkeitsfiltermatrix (Rasterfilter 22) mit 5 x 5 Rasterfilterelementen angegeben und das von dem Scanbereich aufgespannte Zielbild Z' ist mit 25 x 25 Pixeln angenommen, doch kann die Erfindung auch für alle anderen Auflösungen des Zielbildes und für alle anderen Auflösungen der In the computer unit 26, after a complete scan of the deflection mirror 12, all stored sum brightness values of the individual target image pixels are combined again into a result image, which is then output via an output interface 27, for example on a display device 28. The formation of the result image from the stored sum brightness values of the individual target image pixels takes place in such a way that the stored sum brightness value of a target image pixel is assigned to the same position in the result image that the target image pixel assumed in the target image. This output result image is not only brighter than the target image Z 'originally projected onto the input plane E by the light amplification described, but due to the different weighting of the respective neighboring pixels according to the matrix from FIG. 1A, this result image is also smoothed and no longer contains any noise pixels emerge from the background. As a result, the brightness curve of the result image is continuous, so that the result image is differentiable. The image contrast is also improved by the described method. Although in the example shown the brightness filter matrix (raster filter 22) is given with 5 × 5 raster filter elements and the target image Z 'spanned by the scan area is assumed to be 25 × 25 pixels, the invention can also be used for all other resolutions of the target image and for all other resolutions of the
Helligkeitsfiltermatrix beziehungsweise der Matrix aus Lichtleitelementen realisiert werden. Brightness filter matrix or the matrix of light-guiding elements can be realized.
In Fig. 2 ist eine abgewandelte Variante der in Fig. 1 gezeigten FIG. 2 shows a modified variant of that shown in FIG
Beobachtungsvorrichtung dargestellt. Die von der zu beobachtenden Szene empfangene Strahlung S wird von der Teleskopeinheit 110 der optischen Observation device shown. The radiation S received by the scene to be observed is transmitted by the telescope unit 110 of the optical system
Einrichtung 101 eingefangen und mittels eines— im Gegensatz zu Fig. 1 nicht bewegbaren— Umlenkspiegels 1 12 auf einen Bildsensor 121 (beispielsweise auf einen CCD-Sensor) einer Bilderfassungseinrichtung 120, die Bestandteil der Bildaufbereitungseinrichtung 102 ist, geleitet, wobei das Zielbild Z' der beobachteten Szene vollständig auf dem Bildsensor 121 abgebildet wird. Device 101 is captured and guided by means of a - in contrast to FIG. 1 nichtbewegbaren- deflecting mirror 1 12 on an image sensor 121 (for example, a CCD sensor) of an image capture device 120, which is part of the image processing device 102, wherein the target image Z 'of observed scene is completely mapped on the image sensor 121.
Die Bilderfassungseinrichtung 120 setzt das auf den Bildsensor 121 projizierte optische Zielbild Z' in ein digitales Bild um, das in Form einer Bilddatei an eine Rechnereinheit 126 weitergeleitet wird. In der Rechnereinheit 126 läuft eine Software ab, die analog dem in Verbindung mitThe image capture device 120 converts the optical target image Z 'projected onto the image sensor 121 into a digital image, which is forwarded in the form of an image file to a computer unit 126. In the computer unit 126 runs from a software that analogous to that in connection with
Fig. 1 beschriebenen optischen Bildaufbereitungsverfahren das erhaltene digitale Bild aufbereitet. Dabei wird das aufgenommene Zielbild Z' in ein Rasterbild gewandelt und rasterelementweise beziehungsweise pixelweise bearbeitet, wobei der Helligkeitswert eines jeden Zielbildpixels bestimmt und entsprechend der in Fig. 2A gezeigten Filtermatrix, die ein Rasterfilter 122 mit den Rasterfilterelementen 122', 122" als Software Subroutine bildet, mit den gefilterten Pixeln der das aktuelle Zielbildpixel umgebenden Pixel des Zielbildes zu einem Summen-Helligkeitswert aufaddiert. Diese Bildung eines Summen-Helligkeitswerts wird für jedes Zielbildpixel durchgeführt und aus den einzelnen erhaltenen Summen-Helligkeitswerten dieser elektronisch gerasteten Zielbild pixel oder Zielbildelemente wird ein Ergebnisbild auf analoge Weise erzeugt wie dies in Verbindung mit der Fig. 1 beschrieben worden ist. Das Ergebnisbild wird über die Ausgabeschnittstelle 127 an eine Fig. 1 described optical image processing method prepared the obtained digital image. In this case, the recorded target image Z 'is converted into a raster image and processed in raster element or pixel by pixel, wherein the brightness value of each target pixel and, according to the filter matrix shown in Fig. 2A forming a raster filter 122 with the raster filter elements 122 ', 122 "as software subroutine, with the filtered pixels of the pixel of the target image surrounding the current target image pixel to a sum brightness value This formation of a sum brightness value is performed for each target image pixel, and from the individually obtained sum brightness values of these electronically-locked target pixel or target image elements, a result image is generated in an analogous manner as described in connection with FIG is sent via the output interface 127 to a
Anzeigeeinrichtung 128 ausgegeben. Display 128 issued.
Obwohl die hier beschriebenen Beispiele auf das sichtbare Lichtspektrum bezogen sind, sind sie nicht darauf beschränkt. Zusätzlich zu der beschriebenen Although the examples described herein are for the visible spectrum of light, they are not limited thereto. In addition to the described
Bildaufbereitung von im sichtbaren Lichtspektrum aufgenommenen Szenen werden die Szenen auch in anderen Spektren, beispielsweise im Infrarotspektrum und im Ultraviolettspektrum aufgenommen und auf dieselbe Weise aufbereitet wie dies in Bezug auf die Fig. 1 und Fig. 2 beschrieben worden ist. Die so erhaltenen Image processing of scenes recorded in the visible light spectrum, the scenes are also recorded in other spectra, for example in the infrared spectrum and in the ultraviolet spectrum and processed in the same manner as has been described with reference to FIGS. 1 and 2. The thus obtained
Ergebnisbilder unterschiedlicher Spektralbereiche werden in der Rechnereinheit 26, 126 zu einem Multispektralbild überlagert, das über die Ausgabeschnittstelle 27, 127 ausgegeben wird. Result images of different spectral ranges are superimposed in the computer unit 26, 126 to form a multi-spectral image, which is output via the output interface 27, 127.
Fig. 3 zeigt eine Beobachtungsvorrichtung, wie sie unter Bezugnahme auf Fig. 1 bereits beschrieben worden ist. Die Bezugszeichen entsprechen daher denen aus Fig. 1. Ein wesentlicher Unterschied zur Ausführungsform der Fig. 1 besteht darin, dass das die Lichtleitelemente aufweisende Bildrasterungsmodul 20 um eine parallel zur Längsrichtung der Lichtleitelemente verlaufende Rotationsachse X in vorgegebenen Winkelschritten (beispielsweise 12 Winkelschritte über 360°) drehbar ist wie durch den Pfeil 23 symbolisch dargestellt ist. Das Teleskop 10 erzeugt über den Umlenkspiegel 12 ein beispielsweise 25 x 25 Pixel großes Zielbild Z', das in Fig. 3 als Matrix mit 5 x 5 Feldern dargestellt ist, wobei jedes Feld die Größe von 5 x 5 Pixeln oder Rasterelementen aufweist und damit dieselbe Größe und dieselbe Anzahl von Rasterelementen besitzt, wie das Rasterfilter 22. Fig. 3 shows an observation device as already described with reference to Fig. 1. An essential difference to the embodiment of FIG. 1 is that the Bildrasterungsmodul 20 having the light-guiding elements about a parallel to the longitudinal direction of the Lichtleitelemente axis of rotation X in predetermined angular increments (for example, 12 angular steps over 360 °) is rotatable as symbolically represented by the arrow 23. The telescope 10 generates via the deflection mirror 12, for example, a 25 x 25 pixel target image Z ', which is shown in Fig. 3 as a matrix with 5 x 5 fields, each field has the size of 5 x 5 pixels or raster elements and having the same size and number of raster elements as the raster filter 22.
Der Umlenkspiegel 12 lenkt die vom Teleskop 10 eingefangene Strahlung horizontal und vertikal so ab, dass jedes Mittelpixel eines jeden 5 x 5 Pixelblocks The deflection mirror 12 deflects the radiation captured by the telescope 10 horizontally and vertically such that each center pixel of each 5 × 5 pixel block
(= Zielbildelement Zj) sequentiell über das zentrale Lichtleitelement des (= Target pixel Zj) sequentially via the central light guide of the
Bildrasterungsmoduls 20 geführt wird. Die sich entsprechend der in Verbindung mit Fig. 1 beschriebenen Bildverarbeitung ergebenden Helligkeitswerte für die fünfundzwanzig Zielbildelemente z, werden in der Rechnereinheit 26 abgespeichert. Dabei erfolgt die Bildaufbereitung vorzugsweise nicht nur im Bereich des sichtbaren Lichts, sondern analog auch für andere Spektralbereiche. Auch die Ergebniswerte für die anderen Spektralbereiche werden in der Rechnereinheit 26 abgespeichert. Frame screening module 20 is performed. The brightness values for the twenty-five target picture elements z, which result in accordance with the image processing described in connection with FIG. 1, are stored in the computer unit 26. The image processing is preferably carried out not only in the visible light range, but also analogously for other spectral ranges. The result values for the other spectral ranges are also stored in the computer unit 26.
Daraufhin wird das Bildrasterungsmodul 20 um einen Winkelschritt weiter gedreht und die beschriebenen Bildaufbereitungsschritte werden wiederholt. Wird dieses Prozedere für alle Winkelschritte, also für eine vollständige Umdrehung des Thereafter, the rasterization module 20 is rotated further by one angular step and the described rendering steps are repeated. If this procedure for all angular steps, so for a complete revolution of the
Bildrasterungsmoduls 20 um die Achse X, durchgeführt, so wird eine der Anzahl der Winkelschritte entsprechende Anzahl von Ergebnisbildern in unterschiedlichen Drehlagen erhalten. Scanning module 20 about the axis X, carried out, a number of angle increments corresponding number of result images is obtained in different rotational positions.
Die neun inneren 5 x 5 Pixelblöcke zm des Zielbilds Z' werden jetzt als The nine inner 5 x 5 pixel blocks z m of the target image Z 'are now called
Suchbildbereich definiert und das auf diese Elemente zm reduzierte Zielbild wird mit in einer Speichereinrichtung 29 gespeicherten Referenzbildern gleicher Größe und gleicher Auflösung verglichen. Die Position und die Drehlage bei der die kleinste Differenz zwischen dem Suchbild und dem gespeicherten Referenzbild auftritt, wird als Position und Drehlage eines in der überwachten Szene enthaltenen Zieles einer Referenzbildklasse registriert. Defined search image area and reduced to these elements z m target image is compared with stored in a memory device 29 reference images of the same size and the same resolution. The position and the rotational position at which the smallest difference between the search image and the stored reference image occurs is registered as the position and rotational position of a target of a reference image class contained in the monitored scene.
Auf diese Weise ist ein Verfahren zur automatischen Objekterkennung unter In this way, a method for automatic object recognition is under
Anwendung des in Verbindung mit Fig. 1 beschriebenen Application of the described in connection with FIG. 1
Bildaufbereitungsverfahrens geschaffen. Die Fig. 4 zeigt eine weitere Variante einer erfindungsgemäßen Imaging process created. 4 shows a further variant of an inventive
Beobachtungsvorrichtung zur automatischen Objekterkennung. Die Observation device for automatic object recognition. The
Beobachtungsvorrichtung entspricht in ihrem Aufbau der in Verbindung mit Fig. 2 beschriebenen Beobachtungsvorrichtung, so dass die Bezugszeichen in Fig. 4 dieselben Bezugszeichen sind wie in Fig. 2 und somit dieselben Bauteile Observation device corresponds in its construction of the observation device described in connection with FIG. 2, so that the reference numerals in Fig. 4 are the same reference numerals as in Fig. 2 and thus the same components
bezeichnen. In Abweichung zur Ausführungsform der Fig. 2 weist die describe. In contrast to the embodiment of Fig. 2, the
Ausführungsform der Fig. 4 einen Referenzbildspeicher in der Speichereinrichtung 129 auf, der mit der Rechnereinheit 126 zum Datenaustausch in Verbindung steht. Die Rechnereinheit 26, 126 und die Speichereinrichtung 29, 129 bilden innerhalb der Bildaufbereitungseinrichtung 2 eine Bildauswerteeinrichtung 25. Embodiment of FIG. 4 on a reference image memory in the memory device 129 which communicates with the computer unit 126 for data exchange. The computer unit 26, 126 and the memory device 29, 129 form an image evaluation device 25 within the image processing device 2.
Auch mit dieser Vorrichtung wird ein Verfahren zur Objekterkennung ähnlich dem in Verbindung mit Fig. 3 beschriebenen Verfahren durchgeführt, wobei in der Also with this device, a method for object recognition is performed similar to the method described in connection with FIG. 3, wherein in the
Ausführungsform der Fig. 4 jedoch die Drehung des Zielbildes Z' virtuell mittels der in der Rechnereinrichtung 126 laufenden Software durchgeführt wird. Embodiment of FIG. 4, however, the rotation of the target image Z 'is performed virtually by means of the software running in the computer 126.
Für die, bevorzugterweise multispektrale, Bilderkennung werden in dem Zielbild Z' (25 x 25 Pixel) für jede Suchpixelposition Pz folgende Kennwerte berechnet: For the, preferably multispectral, image recognition, the following characteristic values are calculated in the target image Z '(25 × 25 pixels) for each search pixel position Pz:
1 ) Der nach der Matrix des Rasterfilters 122 gewichtete Mittelwert der einzelnen normierten Spektralkomponenten und der Gesamthelligkeit wird für jeden einzelnen der neun markierten 5 x 5 Pixelblöcke zm und für alle vier zentralen Pixel 123 der Eck-Pixelblöcke im Zentralbereich aus neuen Pixelblöcken berechnet und es wird jeweils der Durchschnittswert der Mittelwerte für die jeweils acht in einem Ring angeordneten 5 x 5 Pixelblöcke Z , die einen jeweiligen Eck-Pixelblock umgeben, berechnet. 1) The average of the individual normalized spectral components and the total brightness, weighted according to the matrix of the raster filter 122, is calculated for each one of the nine marked 5 x 5 pixel blocks z m and for all four central pixels 123 of the corner pixel blocks in the central area from new pixel blocks In each case, the average value of the average values is calculated for the respective eight 5 × 5 pixel blocks Z arranged in a ring, which surround a respective corner pixel block.
2) Die Standardabweichung der einzelnen normierten Spektralkomponenten und der Gesamthelligkeit wird für jeden der neun markierten 5 x 5 Pixelblöcke zm und für alle vier zentralen Pixel 123 berechnet und es wird jeweils der Durchschnittswert der Standardabweichungen für die jeweils acht in einem2) The standard deviation of the individual normalized spectral components and the total brightness is calculated for each of the nine marked 5 x 5 pixel blocks z m and for all four central pixels 123, and the average value of the standard deviations for each eight in one
Ring angeordneten 5 x 5 Pixelblöcke zR berechnet. Ring arranged 5 x 5 pixel blocks z R calculated.
3) Die Werte nach 1 ) und 2) werden in zwölf über 360° verteilten Drehlagen berechnet. 4) Jeder Wertesatz wird in jeder Drehlage zu einem Suchpixel durch 3) The values according to 1) and 2) are calculated in twelve rotational positions distributed over 360 °. 4) Each set of values becomes a search pixel in each rotation position
Differenzbildung mit den Werten für das gesuchte Referenzzielbild verglichen und der Wertesatz mit dem kleinsten Absolutbetrag der Differenzsumme wird als Repräsentant für dieses Suchpixel registriert.  Difference formation compared with the values for the searched reference target image and the value set with the smallest absolute value of the difference sum is registered as a representative of this search pixel.
5) Das Zielbild wird nun in kleinere Teilbereiche zerlegt und das Suchpixel mit der kleinsten Differenzsumme in jedem Teilbereich wird gesucht. Der Wertesatz des Suchpixels mit der kleinsten Differenzsumme wird als erkanntes Zielbild interpretiert und an der betrachteten Suchpixelposition mit einem Pixel Auflösung und der Drehlage als entdecktes Ziel des 5) The target image is now decomposed into smaller subareas and the search pixel with the smallest difference sum in each subarea is searched. The value set of the search pixel with the smallest difference sum is interpreted as a recognized target image and at the considered search pixel position with a pixel resolution and the rotational position as the discovered target of the
Referenzzieltyps registriert.  Reference Target Type registered.
Bezugszeichen in den Ansprüchen, der Beschreibung und den Zeichnungen dienen lediglich dem besseren Verständnis der Erfindung und sollen den Schutzumfang nicht einschränken. Reference signs in the claims, the description and the drawings are only for the better understanding of the invention and are not intended to limit the scope.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
Es bezeichnen: They denote:
1 optische Einrichtung 1 optical device
2 Bildaufbereitungseinrichtung  2 image processing device
10 Teleskopeinheit  10 telescope unit
12 Umlenkspiegel  12 deflecting mirrors
14 Antrieb  14 drive
18 Anzeigeeinrichtung  18 display device
20 Bildrasterungsmodul  20 framing module
22 Rasterfilter  22 raster filters
22' Rasterfilterelement  22 'raster filter element
22" Rasterfilterelement  22 "raster filter element
24 Sensor  24 sensor
25 Bildauswerteeinrichtung  25 image evaluation device
26 Rechnereinheit  26 computer unit
27 Ausgabeschnittstelle  27 output interface
28 Anzeigeeinrichtung  28 display device
29 Speichereinrichtung  29 storage device
101 optische Einrichtung  101 optical device
102 Bildaufbereitungseinrichtung  102 image processing device
110 Teleskopeinheit  110 telescope unit
112 Umlenkspiegel  112 deflecting mirror
120 Bilderfassungseinrichtung  120 image capture device
121 Bildsensor  121 image sensor
122 Rasterfilter  122 Raster filter
122" Rasterfilterelement  122 "grid filter element
122" Rasterfilterelement  122 "grid filter element
125 Bildauswerteeinrichtung  125 image evaluation device
126 Rechnereinheit  126 computer unit
127 Ausgabeschnittstelle 128 Anzeigeeinrichtung 127 Output interface 128 display device
129 Referenzbildspeicher a Grenzlinie  129 Reference picture memory a Limit line
a' Grenzlinie a 'borderline
b Grenzlinie b borderline
b' Grenzlinie b 'borderline
E Eingangsebene  E input level
Pz Suchpixelposition  Pz search pixel position
s elektromagnetische Strahlungs electromagnetic radiation
SM Mittelstrahl SM center beam
Ss Summensignal S s summation signal
X optische Achse  X optical axis
z aufgespannter Bereichz stretched area
Z' Zielbild Z 'target image
Zi Zielbildelement  Zi target picture element
Zm Pixelblock Z m pixel block
ZR Pixelblock  ZR pixel block

Claims

Patentansprüche claims
Verfahren zur Bildaufbereitung mit folgenden Schritten: Process for image processing with the following steps:
a) Erfassen von Bildinformation einer Szene als elektromagnetische a) Capture image information of a scene as electromagnetic
Strahlung mittels einer optischen Einrichtung (1 , 101 );  Radiation by means of an optical device (1, 101);
b) Aufbereiten der in Schritt a) erhaltenen Bildinformation mittels einer Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal- Rausch-Verhältnisses der Bildinformation, wobei die Aufbereitung in folgenden Teilschritten durchgeführt wird: b) preparing the image information obtained in step a) by means of an image processing device (2, 102) for improving the signal-to-noise ratio of the image information, the processing being carried out in the following sub-steps:
b1 ) Unterteilen eines die Bildinformation aufweisenden Rohbildes in Zeilen und Spalten zur Schaffung eines Rasterbildes;  b1) subdividing a raw image having the image information in rows and columns to create a raster image;
b2) Überlagern eines Rasterbildelements mit einem zentralen  b2) superimposing a raster image element with a central one
Rasterfilterelement (22", 122") eines eine ungerade Anzahl von Zeilen und eine ungerade Anzahl von Spalten aufweisenden Rasterfilters (22, 122);  Raster filter element (22 ", 122") of a raster filter (22, 122) having an odd number of lines and an odd number of columns;
b3) Bestimmen der Helligkeitswerte eines jeden der vom Rasterfilter (22, 122) überdeckten Rasterbildelemente, wobei außer dem zentralen Rasterfilterelement (22", 122") jedes andere  b3) determining the brightness values of each of the raster pixels covered by the raster filter (22, 122), each other except the central raster filter element (22 ", 122")
Rasterfilterelement (22', 122') eine individuelle  Raster filter element (22 ', 122') an individual
Lichtdämpfungseigenschaft aufweist;  Having light attenuation property;
b4) Aufsummieren der in Schritt b3) bestimmten Helligkeitswerte zu einem Summen-Helligkeitswert und Zuordnen dieses Summen- Helligkeitswerts zu dem vom zentralen Rasterfilterelement (22", 122") überdeckten Rasterbildelement;  b4) summing the brightness values determined in step b3) into a sum brightness value and associating this sum brightness value with the raster pixel covered by the central raster filter element (22 ", 122");
b5) Wiederholen der Schritte b2) bis b4) für alle verbleibenden  b5) repeating steps b2) to b4) for all remaining ones
Rasterbildelemente;  Raster image elements;
c) Erzeugen eines Ergebnisbildes mit derselben Rasterung wie das c) generating a result image with the same screening as that
Rohbild aus den einzelnen im Schritt b) erhaltenen Summen- Helligkeitswerten der Rasterbildelemente. Verfahren zur Bildaufbereitung nach Anspruch 1 , Raw image from the individual sum brightness values of the raster image elements obtained in step b). A method of image processing according to claim 1,
dadurch gekennzeichnet, characterized,
dass im Schritt a) die Bildinformation der Szene in mehr als einem elektromagnetischen Wellenlängenbereich erfasst wird, um so  that in step a) the image information of the scene in more than one electromagnetic wavelength range is detected, so
Rohbilder der Szene in unterschiedlichen Spektralbereichen zu erhalten;  To obtain raw images of the scene in different spectral ranges;
dass die Schritte b) und c) für alle Rohbilder der Szene durchgeführt werden, um Ergebnisbilder unterschiedlicher Spektralbereiche zu erhalten, und  that steps b) and c) are performed for all the raw images of the scene in order to obtain result images of different spectral regions, and
dass die Ergebnisbilder der unterschiedlichen Spektralbereiche durch Überlagerung zu einem Multispektral-Ergebnisbild zusammengefasst werden.  that the result images of the different spectral regions are combined by superimposition into a multispectral result image.
Verfahren zur Bildaufbereitung nach Anspruch 2, A method of image processing according to claim 2,
dadurch gekennzeichnet, characterized,
dass das Erfassen der Bildinformation der Szene in den unterschiedlichen Spektralbereichen unter Verwendung unterschiedlicher Spektralbereichsfilter in kurzer zeitlicher Aufeinanderfolge mittels einer in that the acquisition of the image information of the scene in the different spectral ranges using different spectral range filters in a short temporal succession by means of a
Hochgeschwindigkeitskamera erfolgt. High speed camera done.
Verfahren zur automatischen Objekterkennung unter Anwendung des Method for automatic object recognition using the
Verfahrens zur Bildaufbereitung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, Method for image processing according to one of the preceding claims, characterized
dass das Erfassen der Szene im Schritt a) in unterschiedlichen  that the capture of the scene in step a) in different
Drehwinkeln um die optische Achse (X) der optischen Einrichtung durchgeführt wird;  Rotation angles about the optical axis (X) of the optical device is performed;
dass zu jedem Drehwinkel ein Ergebnisbild gemäß den Schritten des Verfahrens zur Bildaufbereitung erzeugt wird;  that for each rotation angle, a result image is generated in accordance with the steps of the image processing method;
dass die einzelnen Ergebnisbilder mit in einer Objekte-Datenbank gespeicherten Musterbildern einzelner Objekte verglichen werden und dass das Musterbild mit der geringsten Abweichung von einem oder mehreren der Ergebnisbilder das in der Szene enthaltene Objekt identifiziert und die Position des Objekts im Ergebnisbild bestimmt. Verfahren zur automatischen Objekterkennung nach Anspruch 4, in that the individual result images are compared with pattern images of individual objects stored in an object database and that the pattern image with the least deviation from one or more of the result images identifies the object contained in the scene and determines the position of the object in the resulting image. Method for automatic object recognition according to claim 4,
dadurch gekennzeichnet, characterized,
dass die Bestimmung der Position des Objekts im Ergebnisbild durch die Bestimmung der übereinstimmenden Rasterelemente des Ergebnisbildes mit entsprechenden Rasterelementen des Musterbildes erfolgt. in that the determination of the position of the object in the result image is effected by the determination of the matching raster elements of the result image with corresponding raster elements of the pattern image.
Beobachtungsvorrichtung mit einer optischen Einrichtung (1 , 101 ) zum Erfassen von Bildinformation einer Szene sowie mit einer Observation device with an optical device (1, 101) for capturing image information of a scene and with a
Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal-Rausch- Verhältnisses der erfassten Bildinformation, Image processing device (2, 102) for improving the signal-to-noise ratio of the acquired image information,
dadurch gekennzeichnet, characterized,
dass die Beobachtungsvorrichtung zur Durchführung der Verfahrensschritte des Bildaufbereitungsverfahrens nach einem der Ansprüche 1 bis 3 ausgebildet ist. in that the observation device is designed to carry out the method steps of the image preparation method according to one of Claims 1 to 3.
Beobachtungsvorrichtung mit einer optischen Einrichtung (1 , 101 ) zum Erfassen von Bildinformation einer Szene sowie mit einer Observation device with an optical device (1, 101) for capturing image information of a scene and with a
Bildaufbereitungseinrichtung (2, 102) zur Verbesserung des Signal-Rausch- Verhältnisses der erfassten Bildinformation und einer Bildauswerteeinrichtung (25, 125) Image processing device (2, 102) for improving the signal-to-noise ratio of the acquired image information and an image evaluation device (25, 125)
dadurch gekennzeichnet, characterized,
dass die Beobachtungsvorrichtung zur Durchführung der Verfahrensschritte des Objekterkennungsverfahrens nach Anspruch 4 oder 5 ausgebildet ist. in that the observation device is designed to carry out the method steps of the object recognition method according to claim 4 or 5.
Beobachtungsvorrichtung nach Anspruch 6 oder 7, Observation device according to claim 6 or 7,
dadurch gekennzeichnet, characterized,
dass die Bildaufbereitungseinrichtung (2, 102) ein Bildrasterungsmodul (20) und ein Rasterfiltermodul (22, 122) aufweist. Beobachtungsvorrichtung nach Anspruch 8, in that the image processing device (2, 102) has a screen module (20) and a screen filter module (22, 122). Observation device according to claim 8,
dadurch gekennzeichnet, characterized,
- dass das Bildrasterungsmodul (20) eine matrixartige Anordnung von Lichtleitelementen aufweist, die zwischen der optischen Einrichtung (1 ) und einem für die erfasste Strahlung empfindlichen Sensor (24) angeordnet sind;  - That the Bildrasterungsmodul (20) comprises a matrix-like arrangement of light-guiding elements, which are arranged between the optical device (1) and a sensor for the detected radiation (24);
- dass zumindest einem Teil der Lichtleitelemente jeweils ein  - That at least a part of the light guide each one
helligkeitsreduzierendes Rasterfilterelement (22') des Rasterfiltermoduls (22) zugeordnet ist;  brightness-reducing raster filter element (22 ') of the raster filter module (22) is assigned;
- dass die optische Einrichtung (1 ) so ausgestaltet ist, dass sie die erfasste Bildinformation in einer Eintrittsebene (E) des Bildrasterungsmoduls (2) als Rohbild abbildet;  - That the optical device (1) is designed so that it images the detected image information in an entry plane (E) of the image screening module (2) as a raw image;
- dass die optische Einrichtung so ausgestaltet ist, dass das Rohbild  - That the optical device is designed so that the raw image
bezüglich der Eintrittsebene (E) des Bildrasterungsmoduls (20) auf der Eintrittsebene (E) verschiebbar ist;  with respect to the entry plane (E) of the image screening module (20) on the entry level (E) is displaceable;
- dass eine Rechnereinheit (26) vorgesehen ist, die vom Sensor (24) ein Helligkeitssignal erhält, und  - That a computer unit (26) is provided which receives a brightness signal from the sensor (24), and
- dass in der Rechnereinheit (26) eine Software abläuft, die den  - That in the computer unit (26) runs a software that the
Verfahrensschritt c) des Anspruchs 1 sowie vorzugsweise die  Process step c) of claim 1 and preferably the
Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert.  Method steps of one of claims 2 to 5 implemented.
Beobachtungsvorrichtung nach Anspruch 8, Observation device according to claim 8,
dadurch gekennzeichnet, characterized,
- dass der optischen Einrichtung (101 ) ein Bildsensor (121 ) nachgeordnet ist;  - That the optical device (101) an image sensor (121) is arranged downstream;
- dass die optische Einrichtung (101 ) so ausgestaltet ist, dass sie die  - That the optical device (101) is designed so that they
erfasste Bildinformation in einer Sensorebene des Bildsensors (121 ) abbildet;  captured image information in a sensor plane of the image sensor (121) maps;
- dass eine Rechnereinheit (126) vorgesehen ist, die vom Bildsensor (121 ) ein Bildsignal erhält, und  - That a computer unit (126) is provided which receives an image signal from the image sensor (121), and
- dass in der Rechnereinheit (126) eine Software abläuft, die die  - That in the computer unit (126) runs a software that the
Verfahrensschritte b) und c) des Anspruchs 1 sowie vorzugsweise die Verfahrensschritte eines der Ansprüche 2 bis 5 implementiert, wobei das Bildrasterungsmodul und das Rasterfiltermodul (122) als Subroutine der Software ausgebildet sind. Method steps b) and c) of claim 1 and preferably the method steps of one of claims 2 to 5 implemented, wherein the Frame screening module and the raster filter module (122) are designed as a subroutine of the software.
Verfahren zur Bahnverfolgung startender Raketen mit brennenden Method for tracking the track of launching rockets with burning
Triebwerken mit stark erhöhter Genauigkeit gegenüber dem Stand der Technik, Engines with greatly increased accuracy over the prior art,
dadurch gekennzeichnet, characterized,
- dass die Beobachtung von einem hoch über der dichten Atmosphäre fliegenden Fluggerät nach oben mit dem kalten Weltraum als  - that the observation of a high above the dense atmosphere flying aircraft up with the cold space as
Hintergrund erfolgt und dadurch die Empfindlichkeit des Systems wesentlich erhöht und die Störanfälligkeit verringert wird.  Background takes place and thereby significantly increases the sensitivity of the system and the susceptibility is reduced.
- dass die Beobachtung von der Seite und von unten erfolgt, so dass die Sichtlinie auf den heissen Kernbereich des Triebwerksstrahles weder durch den Rumpf der Rakete noch durch den Rauch und Abgasstrahl hinter der Rakete verdeckt wird.  - that the observation is from the side and from below, so that the line of sight on the hot core area of the engine jet is hidden neither by the missile's fuselage nor by the smoke and the exhaust jet behind the missile.
- dass schmalbandige Multispektralbilder des Feuerstrahls der Rakete in mindestens 3 Bändern aufgenommen werden, deren Spektralbereiche so auf die Temperatur des beobachteten Zieles abgestimmt sind, dass sich die Temperaturverteilung in dem Zielbild sehr genau, z.B. auf 50°K genau berechnen lässt.  that narrow-band multispectral images of the fire beam of the rocket are recorded in at least 3 bands whose spectral ranges are tuned to the temperature of the observed target, that the temperature distribution in the target image is very accurate, e.g. calculated to 50 ° K.
- dass zur Bahnverfolgung der Rakete der Hochtemperaturbereich des Kernstrahles verwendet wird, der fest an die Triebwerksdüse gebunden ist und keinen Fluktuationen unterworfen ist, die die  - That the track tracking of the rocket, the high temperature region of the core beam is used, which is firmly bonded to the engine nozzle and is not subject to fluctuations, the
Messgenauigkeit beeinträchtigen könnten.  Could affect measurement accuracy.
- dass die optische Auflösung in der Größe des Düsendurchmessers der Rakete gewählt wird, um die Größe, die Zahl, und die Anordnung der Raketentriebwerke an der Rakete bestimmen zu können, und die Rakete damit nach ihrem Typ klassifizieren zu können.  - That the optical resolution in the size of the nozzle diameter of the rocket is selected in order to determine the size, the number, and the arrangement of the rocket engines on the rocket, and thus to be able to classify the rocket according to their type.
EP13794796.6A 2012-10-12 2013-10-08 Image processing method and method for tracking missiles Withdrawn EP2907105A2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102012020104 2012-10-12
DE102012022045.6A DE102012022045A1 (en) 2012-10-12 2012-11-09 Method for image processing and thus feasible method for automatic object recognition and observation device and method for high-precision tracking of launcher rockets at long distances
PCT/DE2013/000569 WO2014056473A2 (en) 2012-10-12 2013-10-08 Method for image processing and method that can be performed therewith for the automatic detection of objects, observation device and method for high-precision tracking of the course followed by launched rockets over large distances

Publications (1)

Publication Number Publication Date
EP2907105A2 true EP2907105A2 (en) 2015-08-19

Family

ID=50383016

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13794796.6A Withdrawn EP2907105A2 (en) 2012-10-12 2013-10-08 Image processing method and method for tracking missiles

Country Status (6)

Country Link
US (1) US9300866B2 (en)
EP (1) EP2907105A2 (en)
JP (1) JP6285940B2 (en)
KR (1) KR20150072423A (en)
DE (1) DE102012022045A1 (en)
WO (1) WO2014056473A2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5991438B2 (en) * 2013-08-08 2016-09-14 株式会社島津製作所 Image processing device
CN111797872B (en) * 2019-04-09 2023-08-01 深圳市家家分类科技有限公司 Control method, electronic device, computer-readable storage medium, and degradation apparatus
US11587323B2 (en) * 2019-06-28 2023-02-21 Raytheon Company Target model broker
CN115147313B (en) * 2022-09-01 2022-12-30 中国科学院空天信息创新研究院 Geometric correction method, device, equipment and medium for oval orbit remote sensing image

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4686646A (en) 1985-05-01 1987-08-11 Westinghouse Electric Corp. Binary space-integrating acousto-optic processor for vector-matrix multiplication
JPH04164275A (en) * 1990-10-26 1992-06-09 Hamamatsu Photonics Kk Optical tracker for remote position
US5299275A (en) * 1993-03-31 1994-03-29 Eastman Kodak Company Optical fiber filter for reducing artifacts in imaging apparatus
US6965685B1 (en) * 2001-09-04 2005-11-15 Hewlett-Packard Development Company, Lp. Biometric sensor
DE102011010339A1 (en) * 2011-02-04 2012-08-09 Eads Deutschland Gmbh Airspace surveillance system for the detection of missiles launched within an area to be monitored and air surveillance procedures
DE102011010337A1 (en) 2011-02-04 2012-08-09 Eads Deutschland Gmbh Camera system for the detection and tracing of moving objects at a great distance

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2014056473A2 *

Also Published As

Publication number Publication date
KR20150072423A (en) 2015-06-29
WO2014056473A2 (en) 2014-04-17
US20150281572A1 (en) 2015-10-01
JP2015537290A (en) 2015-12-24
WO2014056473A3 (en) 2014-07-17
US9300866B2 (en) 2016-03-29
DE102012022045A1 (en) 2014-04-17
JP6285940B2 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
WO2002103385A1 (en) Method for preparing image information
DE102004018813A1 (en) Method for detecting and / or tracking objects
EP0355310A2 (en) System for the recognition of the start and approach of objects
EP1953568A1 (en) Imager semiconductor element, camera system and method for creating a picture
EP1460454B1 (en) Method for combined processing of high resolution images and video images
EP2907105A2 (en) Image processing method and method for tracking missiles
DE10154861A1 (en) Localizing system for objects uses transmitter for pulsed emission of laser beams and receiver with sensor to pick up reflected beam pulses and to analyze them regarding their execution time
DE202016007867U1 (en) Control the line of sight angle of an image processing platform
DE102018108936A1 (en) Form measuring system and shape measuring method
DE102005055879A1 (en) Air Traffic guide
DE102019008472B4 (en) Multi-lens camera system and method for hyperspectral imaging
DE102012020093A1 (en) Arrangement for locating, detecting and monitoring icebergs, has unmanned aircraft which is equipped with image detecting unit, where control center is provided for controlling unmanned aircraft
CN108257090B (en) High-dynamic image splicing method for airborne line-scan camera
DE102008015979A1 (en) Moving picture processing system and moving picture processing method
DE4205056A1 (en) Scene scanning for classification of moving objects - involves assessment of average speeds deduced from processed images of subdivided scene obtd. during successive scans
DE102012111199A1 (en) Optical device for camera of vehicle for detecting images of two different distance ranges, has two image acquisition elements that are arranged in different image planes of imaging system
DE102006060612B4 (en) Method for monitoring target objects and multispectral camera
DE102017117212A9 (en) System and method for stereotriangulation
DE102016102610A1 (en) laser scanner
EP3200149B1 (en) Method for detection of an object in a seeker image
DE10001282A1 (en) Method for autonomous detection of helicopters
DE102012020922A1 (en) Laser scanner for panorama image pick-up application, has single-channels provided in optical receiving section, where spectral single sensitivities are adapted selectively to single-spectrums of laser light source
DE102021203812B4 (en) Optical measuring device and method for determining a multidimensional surface model
EP4276429A1 (en) Multi-spectral and panchromatic imaging apparatus and associated system and method
DE102016125372A1 (en) Method for determining the position and / or orientation by simultaneously recording object space information from considerably different wavelength ranges in an image, digital camera system and mobile electronic device

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20150422

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170503