DE102006060612B4 - Method for monitoring target objects and multispectral camera - Google Patents

Method for monitoring target objects and multispectral camera Download PDF

Info

Publication number
DE102006060612B4
DE102006060612B4 DE102006060612A DE102006060612A DE102006060612B4 DE 102006060612 B4 DE102006060612 B4 DE 102006060612B4 DE 102006060612 A DE102006060612 A DE 102006060612A DE 102006060612 A DE102006060612 A DE 102006060612A DE 102006060612 B4 DE102006060612 B4 DE 102006060612B4
Authority
DE
Germany
Prior art keywords
target
color
target object
background
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102006060612A
Other languages
German (de)
Other versions
DE102006060612A1 (en
Inventor
Hans Pongratz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Priority to DE102006060612A priority Critical patent/DE102006060612B4/en
Publication of DE102006060612A1 publication Critical patent/DE102006060612A1/en
Application granted granted Critical
Publication of DE102006060612B4 publication Critical patent/DE102006060612B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Auswertung von Bilder in einer Multispektralkamera, wobei digitale Multispektralbilddaten von einer Bildsensoreinheit der Multispektralkamera zu einer Verarbeitungseinheit der Multispektralkamera übertragen und für jeden Bildpunkt eines von der Bildsensoreinheit erzeugten digitalen Multispektralbildes ein Farbhistogramm im HSV-Farbraum erzeugt werden,
dadurch gekennzeichnet, dass
die Helligkeitswerte der einzelnen Bildpunkte skaliert werden und eine datenbankgestützte Ermittlung und Markierung der Übergangspunkte zwischen einem Zielobjekt und dem Hintergrund durchgeführt wird, wobei
ein Satz von Differenzwerten der Farbe und Textur des zu untersuchenden Bildpunktes und der mittleren Farbe und Textur einer Anzahl von bezüglich des zu untersuchenden Bildpunktes in der gleichen Zeile/Spalte jeweils vor/darüber und dahinter/darunter direkt benachbarter Bildpunkte berechnet werden, wobei die Farbe gekennzeichnet ist durch die Mittelwerte von Farbton, Farbsättigung und Helligkeit und die Textur gekennzeichnet ist durch die Standardabweichungen von Farbton, Farbsättigung und Helligkeit und wobei
zur Ermittlung von Zielobjekten zeilen-/spaltenweise zweier in einer Zeile/Spalte angeordneten durch eine vorgebbare...
Method for evaluating images in a multispectral camera, digital multispectral image data being transmitted from an image sensor unit of the multispectral camera to a processing unit of the multispectral camera and a color histogram being generated in the HSV color space for each pixel of a digital multispectral image generated by the image sensor unit,
characterized in that
the brightness values of the individual pixels are scaled and a database-aided determination and marking of the transition points between a target object and the background is performed, wherein
calculating a set of difference values of the color and texture of the pixel to be examined and the mean color and texture of a number of pixels relative to the pixel to be examined in the same row / column respectively before / above and behind / directly adjacent pixels, the color being marked is characterized by the averages of hue, saturation, and brightness, and the texture is characterized by the standard deviations of hue, chroma, and brightness, and where
for the determination of target objects row-wise / column-wise two arranged in a row / column by a predefinable ...

Figure 00000001
Figure 00000001

Description

Die Erfindung betrifft ein Verfahren zur Überwachung von Zielobjekten gemäß den Merkmalen des Anspruchs 1 und eine Multispektralkamera gemäß den Merkmalen des Anspruchs 17.The The invention relates to a method for monitoring target objects according to the characteristics of Claim 1 and a multi-spectral camera according to the features of the claim 17th

Im Bereich der militärischen Aufklärung beispielsweise werden mittels Sensoren Szenarien insbesondere in einem Gelände erfasst, die nach dem Vorhandensein von Einrichtungen, Fahrzeugen, Infrastruktur-Merkmalen und dergleichen untersucht werden sollen. Hierzu werden mittels Überwachungskameras eine große Anzahl von Bilder zur Verfügung gestellt, welche unter vorbestimmten Zeitbedingungen zu bewerten sind. Die zu erkennenden Objekte haben beliebige Abmessungen und können eine diese charakterisierende Struktur mit einer mehr oder weniger grossen Komplexität aufweisen.in the Field of military clarification, clearing up of something For example, using sensors scenarios, especially in a terrain recorded after the presence of facilities, vehicles, Infrastructure features and the like should be investigated. This will be done by means of surveillance cameras a big Number of pictures available which are evaluated under predetermined time conditions are. The objects to be recognized have any dimensions and can one this characterizing structure with a more or less large complexity exhibit.

Mit bekannten Systemen ist eine Boden-Aufklärung und -Entdeckung und anhaltende Boden- Überwachung großer Areale (z. B. 100 km bis 1000 km Grenzgebiet mit einigen Kilometern Tiefe) aus der Luft von Personen-, Tragtier-, und Fahrzeug- Zielobjekten möglich. Hierzu werden üblicherweise Multispektral-Stereo-Kameras verwendet, welche an Fluggeräten montiert die Daten im Flug aufzeichnen. Die Daten werden nach dem Flug am Boden ausgewertet, was im allgemeinen Stunden bis Tage dauert, bis die Aufklärungs- und Entdeckungsergebnisse vorliegen. Eine Sofortüberwachung ist damit nicht möglich. Andererseits werden Videokameras, teilweise auch mit Entdeckungshilfen ausgestattet, zur permanenten Überwachung kleinerer Areale aus der Luft eingesetzt, wobei die Zielsuche und Lagebeurteilung dem Beobachter überlassen bleibt, und die Daten einfach für spätere Nachbearbeitung aufge zeichnet werden. Zur Überwachung großer Areale ist dieses Verfahren nicht geeignet wegen des extrem hohen Aufwandes dafür.With known systems is a soil reconnaissance and detection and persistent Ground monitoring greater Area (eg 100 km to 1000 km border area with a few kilometers Depth) from the air of passenger, carrier, and vehicle targets possible. These are usually Used multispectral stereo cameras mounted on aircraft record the data in flight. The data will be sent to you after the flight Soil evaluated, which generally takes hours to days until the reconnaissance and discovery results are available. An immediate monitoring is thus not possible. on the other hand are video cameras, partly also equipped with detection aids, for permanent monitoring smaller areas used from the air, with the target search and Assessment to the observer stays, and the data easy for latter Postprocessing will be recorded. For monitoring large areas This method is not suitable because of the extremely high cost for this.

Aus DE 10 2005 009 626 A1 ist eine Kamera zum Verfolgen von Objekten bekannt. Bei dieser Kamera werden Zielobjekte durch Vergleich des aufgenommenen Bildes mit einer Datenbank identifiziert. Ein ähnliches Verfahren zur Zielerkennung ist aus DE 199 55 919 C1 bekannt. Diese Verfahren haben den Nachteil, dass die Erkennung von Zielen sehr langsam vor sich geht.Out DE 10 2005 009 626 A1 is a camera known for tracking objects. In this camera, target objects are identified by comparing the captured image with a database. A similar method for target recognition is off DE 199 55 919 C1 known. These methods have the disadvantage that the recognition of targets is very slow.

Aus XU Richard Y. D. et al: "Robus real-time tracking of non-rigid objects"; ACM; 2004; Proceedings of the Pan-Sydney area workshop o Visual information processing; Conference Proceeding Series, Vol. 100, Seiten 95–98; ISBN-ISSN: 1445-1336, 1-920682-18-X ist ein Verfahren bekannt, welches von einem Benutzer ausgewählte und sich bewegende Objekte in Videosequenzen verfolgen kann.Out XU Richard Y.D. et al: "Robus real-time tracking of non-rigid objects "; ACM; 2004; Proceedings of the Pan-Sydney area workshop o Visual information processing; Conference Proceeding Series, Vol. 100, pages 95-98; ISBN-ISSN: 1445-1336, 1-920682-18-X, a method is known which of selected by a user and can track moving objects in video sequences.

BALA Jerzy, et al. "Applications of Distributed Mining Techniques for Knowledge Discovery in Dispersed Sensory Data"; 7th Joint Conference in Information Sciences – JCIS 2003, Cary, NC, USA, Sep. 26–30, 2003, Data Mining Session beschreibt ein Verfahren, welches aus Bildern Zielobjekte erkennen kann. Hierzu werden verschiedene Arten von Masken über die aufgenommenen Bilder gelegt.BALA Jerzy, et al. "Applications of Distributed Mining Techniques for Knowledge Discovery in Dispersed Sensory Data "; 7th Joint Conference on Information Sciences - JCIS 2003, Cary, NC, USA, September 26-30, 2003, Data Mining Session describes a procedure which consists of Can recognize images of target objects. These are different types from masks over the pictures taken.

DU Peijun, et al.: "Study an content-based remote sensing image retrieval", IEEE, 25-29 July 2005, Proceedings of the Geoscience and Remote Sensing Symposium 2005. (IGARSS '05), Volume 2, page(s): 707–710; ISBN: 0-7803-9050-4 beschreibt ein Verfahren, bei welchem bei der Fernerkundung über Masken datenbankgestützt Farb- und Texturdaten verglichen werden.YOU Peijun, et al .: "Study to content-based remote sensing image retrieval, "IEEE, 25-29 July 2005, Proceedings of the Geoscience and Remote Sensing Symposium 2005. (IGARSS '05), Volume 2, page (s): 707-710; ISBN: 0-7803-9050-4 describes a method in which remote sensing via masks database support Color and texture data are compared.

Es ist Aufgabe der Erfindung, ein Verfahren anzugeben, mit welchem eine Überwachung von Zielobjekten während des Überflugs eines zu beobachtenden Gebiets möglich ist. Eine weitere Aufgabe besteht in der Bereitstellung einer Multispektralkamera, welche in der Lage ist, beim Überflug über ein großes Areal in Echtzeit Zielobjekte mit geringem Kontrast zum Hintergrund zu entdecken und zu klassifizieren.It Object of the invention to provide a method with which a surveillance of target objects during of the overflight of an area to be observed is. Another object is to provide a multispectral camera, which is able to fly over one great Real-time target Object with low contrast to the background to discover and classify.

Vorgeschlagen wird eine Multispektralkamera zur Überwachung von Zielobjekten mit einer digitalen Bildsensoreinheit zur Aufnahme von Bildern und zur Erzeugung von digitalen Multispektralbilddaten und einer Verarbeitungseinheit zum Verarbeiten der von der Bildsensoreinheit an die Verarbeitungseinheit übergebenen Multispektralbilddaten, bei der die Verarbeitungseinheit eine Berechnungseinheit zur Berechnung eines Farbhistogramms im HSV-Farbraum für jeden Bildpixel eines digitalen Bildes und einen Klassifikator zur datenbankgestützten Erkennung von Grenzen zwischen Zielobjekten und Zielobjekthintergrund umfasst.proposed becomes a multispectral camera for monitoring target objects with a digital image sensor unit for taking pictures and for generating digital multispectral image data and a processing unit for processing the data transferred from the image sensor unit to the processing unit Multispectral image data in which the processing unit has a calculation unit for Calculation of a color histogram in the HSV color space for each Image pixels of a digital image and a classifier for database-supported recognition of boundaries between target objects and target background.

Die Verarbeitung der Bilddaten erfolgt direkt in der Kamera, so dass nicht der gesamte Datenstrom in voller Auflösung an eine externe Verarbeitungseinheit, z. B. eine Bodenstation übermittelt werden muss. Detektierten Zielobjekte werden an die Bodenstation übermittelt.The Processing of image data is done directly in the camera, so that not the entire full-resolution data stream to an external processing unit, z. B. transmitted a ground station must become. Detected target objects are transmitted to the ground station.

In einer Weiterbildung der Erfindung ist die Multispektralkamera eine Multispektral-Stereokamera, und eine Berechnungseinheit zur Bestimmung der Höhe eines Zielobjektes aus zwei mit einem Stereowinkel aufgenommenen Multispektralbildern ist vorhanden.In In a further development of the invention, the multispectral camera is a Multispectral stereo camera, and a calculation unit for determining the height of a target object from two is present with a stereo angle recorded multispectral images.

Liegen von demselben Zielgebiet zwei Aufnahmen mit einem verwertbaren Stereowinkel (Winkel der Bildachsen der beiden Bilder) vor, so kann von den gefundenen stationären Zielobjekten eine Höhenmessung vorgenommen werden.If two images with a usable stereo angle (angle of the image axes of the two images) are present from the same target area, one of the stationary target objects found can be used Altitude measurement be made.

Das der Erfindung zugrundeliegende Problem wird auch durch ein Verfahren gemäß den Merkmalen des Anspruchs 1 gelöst.The The problem underlying the invention is also due to a method according to the characteristics of claim 1.

Damit ist eine Bilderfassung durch eine schmalbandige Multispektral-(Blau, Grün, Rot, Nahes-Infrarot)-Luftbildkamera und zur automatischen Echtzeitbildauswertung, Zielobjekt -Klassifizierung und -Erkennung, und zum gegebenenfalls Anlegen einer Zielobjekt-Trackliste zur Zielverfolgung an Bord im Fluge möglich. Die automatische Bildauswertung beruht auf der Zielklassifizierung vor einem bestimmten zugehörigen Hintergrund unter Ausnutzung der besonderen Informationsgehalte von Stereo-Multispektral-Aufnahmen. Dabei werden Ziele mit geringem Kontrast aus einem Hintergrund mit vielen potentiellen Falschzielen mit sehr geringer Falschalarmrate und hoher Zuverlässigkeit entdeckt, klassifiziert und erkannt, und bewegte Ziele werden als Bewegtziele erkannt und ihr Geschwindigkeitsvektor gemessen, und von den gefundenen Zielen wird eine Zielobjekt-Trackliste angelegt mit Ziel-Signatur, -Position, und -Geschwindigkeitsvektor zur weiteren Zielverfolgung. Die Auswertung im Flug erlaubt auch eine signifikante Datenreduktion der an die Bodenstation zu übermittelnden Daten.In order to is an image acquisition by a narrow-band multispectral (blue, Green red, Near-infrared) aerial camera and for automatic real-time image analysis, Target object classification and detection, and if necessary Create a target track list for target tracking aboard Flights possible. The automatic image analysis is based on the target classification in front of a specific associated Background taking advantage of the special information content of stereo multispectral recordings. This will be low contrast targets from a background with many potential false targets with very low false alarm rate and high reliability discovered, classified and recognized, and moving goals are considered Detected moving targets and measured their velocity vector, and of the found goals, a target object track list is created with target signature, position, and velocity vector for further target tracking. The evaluation in flight also allows a significant data reduction the to be transmitted to the ground station Dates.

Üblicherweise erzeugt eine Multispektralkamera Bilder mit Bilddaten im RGB Format. Die Bilddaten werden aus dem RGB Format in das HSV (Farbton, Farbsättigung, Helligkeit) Format umgesetzt, in dem alle weiteren Berechnungen durchgeführt werden.Usually A multispectral camera generates images with image data in RGB format. The image data is converted from the RGB format into the HSV (hue, color saturation, Brightness) format, in which all further calculations carried out become.

Die Erfindung wird im Weiteren anhand von Figuren näher erläutert. Es zeigen:The The invention will be explained in more detail with reference to figures. Show it:

1a die Darstellung einer Helligkeits- und Modulationsanhebung in hellen Bildpartien, 1a the display of a brightness and modulation increase in bright image areas,

1b die Darstellung einer Helligkeits- und Modulationsanhebung in dunklen Bildpartien, 1b the display of a brightness and modulation increase in dark picture parts,

2 die Darstellung eines Klassifikators für die Entdeckung von im Wesentlichen einfarbigen Zielobjekten, 2 the representation of a classifier for the discovery of essentially monochromatic target objects,

3 die Darstellung eines Klassifikators für die Entdeckung von getarnten Zielobjekten. 3 the presentation of a classifier for the discovery of camouflaged targets.

In Weiterbildung der Erfindung wird die Helligkeitsverteilung im Kamerabild in dunklen und hellen Bildpartien in Richtung einer einheitlichen Modulationstiefe verbessert (1a, 1b), so dass helle und dunkle Bildpartien gleich gut eingesehen werden können. Das geschieht in geeigneter Weise dadurch, dass jeweils für einen vorgebbaren Abschnitt einer Zeile, z. B. 30 Bildpunkte, der lokale Mittelwert MW der Helligkeit und die Standardabweichung ST der Helligkeit berechnet werden und dann der Helligkeitswert mit dem Quotienten aus dem Mittelwert plus der Standardabweichung geteilt durch den Mittelwert skaliert wird. Dies resultiert in einer Aufhellung dunkler Bildpartien und in einer Intensivierung der resultierenden Farben, durch die kleinere Farbdifferenzen sichtbar gemacht werden.In a development of the invention, the brightness distribution in the camera image is improved in the dark and bright image parts in the direction of a uniform modulation depth ( 1a . 1b ), so that bright and dark parts of the picture can be viewed equally well. This is done in a suitable manner in that in each case for a predeterminable section of a line, for. 30 pixels, the local average MW of the brightness and the standard deviation ST of the brightness are calculated and then the brightness value is scaled by the quotient of the mean plus the standard deviation divided by the mean. This results in a lightening of dark image areas and in an intensification of the resulting colors, by which smaller color differences are made visible.

Entdeckung von einfarbigen ZielobjektenDiscovery of monochrome targets

Variante 1version 1

Zur Erkennung von im Wesentlichen einfarbigen Zielobjekten werden die verbesserten Bilder von einem Farbklassifikator (1. Farbklassifikator) zeilenweise oder spaltenweise untersucht (2). Dabei wird geprüft, ob an dem betrachteten Bildpunkt BP in einem zu untersuchenden Bild, wobei mit dem Bezugszeichen 8 die Zeile/Spalte des zu untersuchenden Bildes angegeben ist, jeweils ein Übergang von einer Hintergrundfarbe und einer Hintergrundtextur zu einer Zielobjektfarbe und Zielobjekttextur vorhanden ist.For recognition of essentially monochromatic target objects, the improved images are examined by a color classifier (1st color classifier), line by line or column by column ( 2 ). In this case, it is checked whether at the observed pixel BP in an image to be examined, with the reference character 8th the line / column of the image to be examined is specified, there is a transition from a background color and a background texture to a target color and target object texture respectively.

Hierzu werden in einer ersten Ausgestaltung des Farbklassifikators für die gesuchten Zielobjekte zunächst eine Zielobjektreferenzfarbtabelle der zulässigen Zielobjektfarben und Zielobjekttexturen angelegt. Ebenso wird für alle zulässigen Hintergründe, vor denen Zielobjekte gesucht werden können, eine Hintergrundreferenzfarbtabelle angelegt.For this be in a first embodiment of the color classifier for the sought Target objects first a target object reference color table of the allowed target colors and Target object textures created. Likewise, for all legal backgrounds, before which target objects can be searched, a background reference color table created.

Unter dem Begriff Klassifikatorfenster 2 wird im Weiteren der Bildausschnitt aus dem Kamerabild verstanden.Under the term classifier window 2 is understood below the image detail from the camera image.

Die Farbe eines Ziels oder des Hintergrunds ist dabei gekennzeichnet durch Mittelwerte von Farbton, Farbsättigung, und Helligkeit über einem Klassifikatorfenster 2. Die Textur eines Ziels oder des Hintergrunds ist gekennzeichnet durch die Standardabweichungen von Farbton, Farbsättigung, durch die Helligkeit sowie durch den Helligkeitsverlauf (Zu- oder Abnahme). Über die Textur des Hintergrunds können z. B. Strasse, Wiese, oder befahrbare Oberflächen erkannt werden. Über die Textur des Zielobjekts lassen sich z. B. Lackfarbe von Fahrzeugen erkennen.The color of a target or background is characterized by averages of hue, chroma, and brightness over a classifier window 2 , The texture of a target or background is characterized by the standard deviations of hue, color saturation, brightness, and brightness (increase or decrease). About the texture of the background z. As road, meadow, or passable surfaces are detected. About the texture of the target can be z. B. recognize paint color of vehicles.

Zweckmäßig wird in einem Bereich 4 vor und einem Bereich 5 nach jedem betrachteten Bildpunkt BP in Richtung 1 einer Zeile/Spalte jeweils für ein Bildfenster 2 (Klassifikatorfenster), das in seiner Größe auf die Größe der gesuchten Zielobjekte angepasst ist, untersucht, ob die vorgebbaren Bedingungen für den gesuchten Hintergrund-Zielobjekt Übergang erfüllt sind, z. B. weisen Hintergrundfarbe und Zielobjektfarbe oder Hintergrundtextur und Zielobjekttextur einen vorgebbaren Unterschied auf. Wenn dies der Fall ist wird der Hintergrund-zu-Ziel-Übergang in das Bild 8 eingetragen. Derselbe Vorgang wird dann zweckmäßig auf Ziel-zu-Hintergrundübergänge angewendet und ebenfalls in das Bild 8 eingetragen.It is useful in an area 4 in front and one area 5 after each pixel considered BP in the direction 1 one row / column each for a picture window 2 (Classifier window), which is adjusted in size to the size of the searched target objects, examines whether the predefinable conditions for the searched background target object transition are met, eg. For example, background color and target color, or background texture and target texture have a specifiable difference. If This will be the background-to-destination transition in the picture 8th entered. The same process is then conveniently applied to target-to-background transitions and also into the image 8th entered.

Bei komplexer Farbgebung entstehen bei diesem Verfahrenschritt aber noch viele Fehlalarme. Die Fehlalarme können zweckmäßig dadurch stark reduziert werden, das nur zusammengehörige Hintergrund-zu-Ziel und darauf direkt folgende Ziel-zu-Hintergrund Übergänge, die nicht durch weitere Übergänge getrennt sind, als gültiges Paar gewertet und für die weitere Berechnung weiterverwendet werden. Dieser Farbklassifikator ist anwendbar auf Ziele, die einen ausreichenden Farb- oder Textur-Kontrast gegenüber dem Hintergrund haben.at complex coloring arise in this process step but many false positives The false alarms can expediently greatly reduced Be that only together Background-to-destination and then directly following target-to-background transitions, the not separated by further transitions are as valid Couple scored and for the further calculation will continue to be used. This color classifier is applicable to targets that have sufficient color or texture contrast over the Have background.

Die Lage des vom Klassifikator bestimmten Übergangs stimmt auf Grund der statistischen Natur des Prozesses, der nur Mittelwerte und Standardabweichungen berücksichtigt, nicht genau mit der optisch wahrnehmbaren Grenze des Zielobjektes überein, sondern liegt üblicherweise davor oder dahinter bzw. darüber oder darunter. Für die genaue Festlegung der Position und Umrisse des Zielobjektes wird zweckmäßig längs der Zeile/Spalte 15 Bildpunkte vor und nach dem gefundenen Übergang in einem Abstand von z. B. 3 Bildpunkten eine Klassifikation der vorgefundenen Farbe (HSV-Wert) nach zulässigen, vordefinierten Zielfarben und Hintergrundfarben einer festen Farbpalette vorgenommen. Dies geschieht dadurch, dass jeweils die normierte Summe der Abstandsquadrate der HSV-Werte von den einzelnen Farben der Farbpalette zu der untersuchten Farbe berechnet werden, und die untersuchte Farbe der Zielobjekt-Palettenfarbe mit dem kleinsten Abstandsquadrat zugeordnet und damit klassifiziert wird, und die Position des untersuchten positiv-klassifizierten Bildpunktes als neue Position des betrachteten Hintergrund-Ziel-Überganges behandelt wird. Damit wird erreicht, dass in den meisten Fällen die Zielobjektmarkierung innerhalb des Umrisses des Objektes zu liegen kommt und einer zulässigen Zielobjektreferenzfarbe zugeordnet wird, und eine tatsächliche Position innerhalb des Objektes für weitere Untersuchungen zur Verfügung steht.The Location of the transition determined by the classifier is correct due to the statistical nature of the process, which only averages and standard deviations considered, not exactly coincident with the visually perceptible border of the target object, but usually lies before or behind or above or below. For the exact definition of the position and outlines of the target object will be useful along the Row / Column 15 pixels before and after the transition found at a distance of z. B. 3 pixels a classification of the found Color (HSV value) according to permissible, predefined Target colors and background colors of a fixed color palette made. This happens because each of the normalized sum of the square squares the HSV values from the individual colors of the color palette to the examined Color calculated, and the inspected color of the target palette color assigned with the smallest square of the distance and thus classified and the position of the examined positively-classified pixel as a new position of the considered background-target transition is treated. This ensures that in most cases the Target object mark to lie within the outline of the object comes and a permissible one Target reference color is assigned, and an actual Position within the object for further investigation disposal stands.

Variante 2Variant 2

In einer zweiten Ausgestaltung des Farbklassifikators (2. Farbklassifikator) werden die Zielobjekt- und Hintergrundreferenzfarbtabellen speziell für die gerade betrachtete Zeile/Spalte jeweils aus einem Referenzumrissbild eines spezifischen gesuchten Zielobjekttyps (z. B. PKW, LKW, Tragtier, Personengruppe) in einer spezifischen gesuchten Referenzfarbgebung bzw. Referenztextur angelegt.In a second embodiment of the color classifier (2nd color classifier) The target and background reference color tables become special for the straight considered row / column respectively from a reference outline image of a specific searched target object type (eg car, truck, carrier, Group of people) in a specific reference coloration sought or reference texture created.

In den weiteren Verfahrensschritten arbeitet der 2. Farbklassifikator wie der 1. Farbklassifikator um mögliche Zielobjekte in dem zu untersuchenden Bild zu finden und zu lokalisieren. Abweichend vom 1. Farbklassifikator wird beim 2. Farbklassifikator in einem Durchgang nach Hintergrund-zu-Ziel-Übergängen, Ziel-zu-Ziel-Übergängen, und Ziel-zu-Hintergrund-Übergängen gleichzeitig gesucht und jeweils die Position des ersten angetroffenen möglichen Zieles in Zeilen-/Spaltenrichtung festgehalten, wobei die gefundene Positionsangabe aufgrund der statistischen Natur des Klassifikationsvorganges üblicherweise neben der genauen Mitte des tatsächlichen Zielobjektes liegt.In the further process steps, the second Farbklassifikator works like the 1st color classifier for possible targets in the too find and locate the examining image. Deviating from the 1. Color classifier becomes the second color classifier in one go for background-to-destination transitions, destination-to-destination transitions, and destination-to-background transitions simultaneously searched and, respectively, the position of the first possible one encountered Target in line / column direction held, the found Position indication due to the statistical nature of the classification process usually next to the exact middle of the actual Target object is located.

Eine möglichst genaue Messung der Lage der Mitte des Zielobjektes längs der Zeile wird nun dadurch erreicht, dass von der Ausgangsposition jeweils eine Klassifikatorfensterbreite vor und nach dieser Position der Ausschnitt der Messzeile/-spalte, der innerhalb des Klassifikatorfensters in dem Referenzumrissbild des gesuchten Zielobjekttyps in der gesuchten Zielobjektfarbe liegt, ausgewählt wird und die Abstandssumme über alle HSV-Farbwerte (Farbton, Farbsättigung, Helligkeit) und Standardabweichungen (von Farbton, Farbsättigung, Helligkeit) aufsummiert wird. Anschließend werden die Gesamtabstandssummen für alle getesteten Positionen verglichen und die Position mit der kleinsten Abstandssumme als wahrscheinlichste Zielposition gewertet. Da hierbei eine vollständige Korrelation des Referenzobjektstreifens auf den gefundenen Zielobjektstreifen stattfindet, ist der Zielsuchprozess des 2. Farbklassifikators viel selektiver und genauer als der 1. Farbklassifikator. Der 2. Farbklassifikator erfordert aber auch einen höheren Rechenaufwand.A preferably accurate measurement of the position of the center of the target along the Line is now achieved by starting from the starting position respectively a classifier window width before and after this position of the Section of measurement line / column within the classifier window in the reference outline image of the searched target object type in the searched Target color is selected is and the distance sum over all HSV color values (hue, color saturation, brightness) and standard deviations (of hue, color saturation, Brightness) is added up. Then the total distance totals become for all compared to the tested positions and the position with the smallest Distance total scored as the most likely target position. Hereby a complete Correlation of the reference object strip to the found target strip takes place, the target search process of the 2nd color classifier is much more selective and accurate than the 1st color classifier. The 2nd color classifier but also requires a higher one Computational effort.

Entdeckung von getarnten ZielobjektenDiscovery of camouflaged targets

Variante 1version 1

Zur Erkennung von getarnten Zielobjekten wird der 1. Farbklassifikator modifiziert, im weiteren auch als 1. Tarnfarbenklassifikator bezeichnet. Dieser Tarnfarbenklassifikator arbeitet mit zwei hintereinander angeordneten zweidimensionalen Fenstern 2, 3, welche längs einer Zeile/Spalte in Richtung 1 über das Kamerabild gezogen werden. Auf dem führenden Abtastfenster 2 (Klassifikatorfenster) liegt ein Referenzmuster 4 des Tarnfarbenmusters, das alle wesentlichen Elemente des Musters enthält. Die Abmessung des Abtastfensters 2 in beide Richtungen beträgt zweckmäßig die drei bis vierfachen mittlere Fleckengröße.For recognition of camouflaged target objects, the 1st color classifier is modified, also referred to below as the 1st camouflage color classifier. This camouflage color classifier works with two two-dimensional windows arranged one behind the other 2 . 3 , which along a row / column in the direction 1 be pulled over the camera image. On the leading scan window 2 (Classifier window) is a reference pattern 4 camouflage pattern containing all the essential elements of the pattern. The dimension of the sampling window 2 in both directions is suitably three to four times the mean spot size.

Unter einer Fleckengröße versteht man üblicherweise die Größe einer unregelmäßig geformten Fläche aus der ein Tarnfarbenmuster besteht. Tarnfarbenmuster setzen sich im allgemeinen aus unregelmäßig geformten Flächen zusammen, die in der Fläche auf die Größe der Vegetationselemente, vor denen als Hintergrund das zu tarnende Objekt nicht mehr unterscheidbar sein soll, und in ihrer Farbgebung auf die Farbgebung des Hintergrunds abgestimmt sind. Somit umfasst das Abtastfenster 2 alle wesentlichen Elemente des Musters.A stain size is usually understood to mean the size of an irregularly shaped surface consisting of a camouflage pattern. Camouflage pattern are generally composed of irregularly shaped surfaces, which in the area on the size of the vegetation elements, before which as a background, the object to be camouflaged should no longer be distinguishable, and are matched in their color to the color of the background. Thus, the sampling window includes 2 all the essential elements of the pattern.

Für jeden einzelnen Bildpunkt 6 des Referenzmusters 4 im Abtastfenster 2 wird gegen jeden Bildpunkt 6b des zu testenden Zielobjektfensters 7 (Ausschnitt aus dem Kamerabild) jeweils die Abstandsquadratsumme der HSV-Werte berechnet und diesem Referenzpunkt der kleinste Wert als Abstand zugeordnet. Die Summe aller Abstände aller Referenzpunkte ist dann der Gesamtabstand dieser Objektfensterlage von dem Zielobjektmuster.For every single pixel 6 of the reference pattern 4 in the sampling window 2 is against every pixel 6b of the target object window to be tested 7 (Extract from the camera image) in each case the least square of the HSV values is calculated and this reference point is assigned the smallest value as the distance. The sum of all distances of all reference points is then the total distance of this object window position from the target object pattern.

Auf dem nachfolgenden Abtastfenster 3 liegt das Referenzmuster 5 des Hintergrundfarbenmusters, das den geringsten Abstand zu dem vorgefundenen Zielobjektmuster aufweist. Dieses Muster wird dann im folgenden als Hintergrundreferenzmuster verwendet, das dem tatsächlichen Hintergrund am nächsten kommt. Die Abmessung des Referenzmusterfenster 3 beträgt zweckmäßig die drei- bis sechs-fachen mittleren Fleckengröße in beiden Richtungen. Somit umfasst das Referenzmusterfenster 5 alle wesentlichen Elemente des Hintergrundmusters.On the following sampling window 3 is the reference pattern 5 the background color pattern having the shortest distance to the target object pattern found. This pattern will then be used as the background reference pattern closest to the actual background. The dimension of the reference pattern window 3 is suitably three to six times the mean spot size in both directions. Thus, the reference pattern window includes 5 all the essential elements of the background pattern.

Für jeden einzelnen Bildpunkt 6 des Referenzmusters 5 wird gegen jeden Bildpunkt 6b des zu testenden Hintergrundfensters 7a des Kamerabildes jeweils die Abstandsquadratsumme der HSV-Werte berechnet und diesem Referenzpunkt der kleinste Wert als Abstand zugeordnet. Die Summe aller Abstände aller Referenzpunkte ist dann der Gesamtabstand dieser Objektfensterlage von dem Hintergrundmuster. Die Zielobjektfensterlage längs des Suchpfades bei der gilt, dass der Abstand des Zielreferenzmusters zum Zielobjektfenster kleiner ist als der Abstand des Hintergrundreferenzmusters zum Zielobjektfenster und der Abstand des Zielreferenzmusters zum Hintergrundfenster größer ist als der Abstand des Hintergrundreferenzmusters zum Hintergrundfenster, wird als wahrscheinlichste Lage des getarnten Objektes gewertet. Zusätzlich muss der Abstand des Zielreferenzmusters zum Zielobjektfenster kleiner sein als eine vorab ermittelte Abstandsschranke, damit das an dieser Stelle gefundene Objekt als gültiges positiv klassifiziertes Zielobjekt gewertet werden kann.For every single pixel 6 of the reference pattern 5 is against every pixel 6b of the background window to be tested 7a of the camera image is calculated in each case the distance square sum of the HSV values and the smallest value is assigned to this reference point as the distance. The sum of all distances of all reference points is then the total distance of this object window position from the background pattern. The target object window position along the search path in which the distance of the target reference pattern to the target window is smaller than the distance of the background reference pattern to the target window and the distance of the target reference pattern to the background window is greater than the distance of the background reference pattern to the background window, is considered to be the most probable position of the camouflaged object , In addition, the distance of the target reference pattern to the target window must be smaller than a previously determined distance barrier, so that the object found at this point can be considered a valid positively classified target object.

Diese Untersuchung wird dann längs des Suchpfades für alle zu suchenden Zielobjektreferenzmuster ausgeführt und damit nach diesen Mustern gesucht.These Examination then becomes longitudinal of the search path for all target object reference patterns to be searched are executed and thus looking for these patterns.

Die absolute Lage des Zielobjektes kann damit nicht genauer als die halbe Fenstergröße bestimmt werden, die relative Lage z. B. bei zwei Folgebildern, die in kurzem Abstand aufgenommen wurden, ist aber mit einigen Bildpunkten genau genug für eine Stereohöhe über Hintergrund Vermessung des gefundenen Zieles mit einer Genauigkeit von einigen Bildpunktbreiten.The absolute location of the target object can not be more accurate than that half window size determined be, the relative position z. B. in two consecutive pictures, in short Distance were recorded, but is accurate with some pixels enough for one Stereo height over background Measuring the found target with an accuracy of a few pixel widths.

Variante 2Variant 2

Zur Erkennung von spezifischen gesuchten Zielobjekttypen (z. B. PKW, LKW, Tragtier, Personengruppe, frischer Erdhügel, Hütte) wird der 2. Farbklassifikator modifiziert, im weiteren auch als 2. Tarnfarbenklassifikator bezeichnet. Hierzu wird ein Klassifikator eingesetzt, der mit zwei hintereinander angeordneten längs der Zeile/Spalte gezogenen, zweidimensionalen Fenstern arbeitet, dessen Abmessungen längs und quer zur Zeile/Spalte gleich der Klassifikatorfensterbreite des 2. Farbklassifikators sind. Auf dem führenden Fenster (Klassifikatorfenster) liegt ein Referenzmuster des gesuchten Tarnfarbenmusters, das wie beim 2. Farbklassifikator beschrieben vorab in einer Referenztabelle angelegt wird, um das Zielobjekt zu charakterisieren, und das groß genug ist, um alle wesentlichen Elemente des Musters und die detaillierten Umrisse des von dem Fenster erfassten Objektteiles zu enthalten. Dies ist bei der drei bis vierfachen mittleren Fleckengröße in beiden Richtungen gegeben, das heißt das Objekt kann mit drei aneinanderliegenden Fenstern in seinen charakterisierenden Umrissen erfasst werden.to Detection of specific searched target object types (eg cars, Truck, pack animal, group of people, fresh mounds, hut) becomes the 2nd color classifier modified, also referred to as the 2nd Tarnfarbenklassifikator. For this purpose, a classifier is used, with two consecutive arranged longitudinally the row / column drawn, two-dimensional windows works, its dimensions along and across the row / column equal to the classifier window width of the 2nd color classifier. Located on the leading window (classifier window) a reference pattern of the sought camouflage pattern, the same as the 2. Color classifier described in advance in a reference table is created to characterize the target object, and that's big enough is to all the essential elements of the pattern and the detailed Contain outlines of the object part captured by the window. This is at three to four times the mean spot size in both Given directions, that is The object can be with three adjacent windows in its characterizing outlines are detected.

Anschließend wird für jeden einzelnen Bildpunkt des gesuchten Referenzmusters gegen jeden Bildpunkt des getesteten Zielobjektfensters jeweils die Abstandsquadratsumme der HSV-Werte berechnet und diesem Referenzpunkt der kleinste Wert als Abstand zugeordnet. Die Summe aller Abstände aller Referenzpunkte ist dann der Gesamtabstand dieser Objektfensterlage von dem Zielobjektmuster. Ausgehend von der mit dem 2. Farbklassifikator gemessenen Objektlage wird nun für das Zielobjektfenster in kleineren Unterfeldern 9 in einem Abstand von einem drittel der Fenstergröße um die Ausgangslage herum in allen 8 Positionen, in denen sich die kleineren Fenster um das mittlere Fenster der 3 × 3 Anordnung gruppieren die Abstandssumme wie oben beschrieben bestimmt. Die Position der Testgruppierung mit der absolut geringsten Abstandssumme wird dann als wahrscheinlichste wahre Position des gefundenen Bildobjektes gewertet und aufgezeichnet für die spätere Verwertung.Then, for each individual pixel of the searched reference pattern, the least square sum of the HSV values is calculated against each pixel of the tested target object window, and the smallest value is assigned to this reference point as the distance. The sum of all distances of all reference points is then the total distance of this object window position from the target object pattern. Starting from the object position measured with the 2nd color classifier, the target object window will now be in smaller subfields 9 at a distance of one third of the window size around the starting position in all 8 positions in which the smaller windows group around the middle window of the 3 × 3 array, the distance sum is determined as described above. The position of the test grouping with the absolute minimum total distance is then evaluated as the most probable true position of the image object found and recorded for later use.

Die Klassifizierung des Zielobjektes kann in Variante 1 und Variante 2 noch weiter verfeinert werden. Hierzu wird das Zielobjektabtastfenster 2 in z. B. neun Teilfenster in einer 3 × 3 Anordnung aufgespaltet. Für diese Teilfenster werden wieder die Abstandssummen zu den korrespondierenden Teilfenster im Klassifikatorfenster berechnet. Dieser Vorgang wird nun, mit jeweils um eine Fensterbreite der Teilfenster längs des Umfanges versetzte Teilfenster wiederholt, bis alle acht möglichen Drehlagen erfasst sind. Bei der Drehung bildet das mittlere Fenster die Drehachse z, um die sich die anderen 8 Teilfenster drehen. In jeder Drehlage werden diese 8 Teilfenster 9 jeweils um eine Position in oder entgegen Uhrzeigersinn verschoben.The classification of the target object can be further refined in Variant 1 and Variant 2. To do this, the target object scan window becomes 2 in z. B. split nine sub-windows in a 3 × 3 arrangement. For these subwindows, the distance totals to the corresponding subwindow in the classifier window are calculated again. This process is now, with each by a window width of the sub-windows along the circumference offset sub-window repeated until all eight possible rotational positions are recorded. During rotation, the central window forms the axis of rotation z, around which the other 8 panes rotate. In each rotational position, these 8 sub-windows 9 each shifted by one position in or counterclockwise.

Die Drehlage mit der kleinsten Abstandssumme wird als wahrscheinlichste wahre Drehlage des gefundenen Zielobjektes gewertet und aufgezeichnet. Dieser Vorgang wird für jeden der zu suchenden Objektformtyp für jede der 4 möglichen Orientierungen wiederholt, d. h. bei 4 Objektformtypen z. B. PKW, LKW, Tragtier, Personengruppe bei 4 Orientierungen muss der Vorgang 16 mal wiederholt werden. Die genannten 4 Orientierungen a, b, c, d ergeben sich bei einem Fenster in einer 3 × 3 Anordnung von Teilfenstern aus einer Anordnung wie sie in 3 dargestellt ist.The rotational position with the smallest distance total is considered the most probable true rotational position of the target object found and recorded. This process is repeated for each of the object shape types to be searched for each of the 4 possible orientations, ie for 4 object shape types z. As car, truck, Tragtier, group of people in 4 orientations must the process 16 to be repeated. The mentioned 4 orientations a, b, c, d result in a window in a 3 × 3 arrangement of partial windows from an arrangement as shown in FIG 3 is shown.

Der Objektformtyp mit dem geringsten Gesamtabstand wird als wahrscheinlichster Objektformtyp gewertet und aufgezeichnet, zusammen mit dem Objektformtyp (z. B. PKW, LKW, Tragtier, Personengruppe) des verwendeten Referenzobjektes, dem Farbmustertyp (einfarbig, Tarnfarbenmuster), und der mittleren Objektfarbe in ihren sechs kennzeichnenden Werten (Mittelwerte und Standardabweichungen), und der Orientierung im Raum, repräsentiert durch die gemessene Drehlage.Of the Object shape type with the smallest total distance is considered the most probable Object shape type evaluated and recorded, along with the object shape type (eg car, truck, carrier, group of persons) of the reference object used, the color pattern type (monochrome, camouflage pattern), and the middle Object color in its six characteristic values (averages and Standard deviations), and orientation in space through the measured rotational position.

Bestimmung von SignaturenDetermination of signatures

Die in den beschriebenen Varianten der Farbklassifikatoren und Tarnfarbenklassifikatoren beschriebenen Verfahren können einerseits flächendeckend zur Suche nach Objekten mit bekannten Referenzmustern eingesetzt werden.The in the described variants of color classifiers and camouflage color classifiers described method can on the one hand, nationwide Used to search for objects with known reference patterns become.

Andererseits können die Verfahren auch auf bereits erkannte Zielobjekte angewendet werden, um diese nach bekannten Zielobjektreferenzmustern zu klassifizieren. Mit dieser gefundenen Klassifizierung kann das tatsächlich vorgefundene Zielobjektmuster um die gefundene Zielposition aufgezeichnet werden, um eine kennzeichnende Signatur dieses spezifischen Zielobjektes zu erhalten. Mit Hilfe dieser Signatur kann das Zielobjekt in einer späteren Luftbildaufnahme desselben Gebietes bei einer inzwischen erfolgten Ortsveränderung gegenüber der ersten Aufnahme wiedergefunden werden, und das betreffende Objekt als bewegtes Objekt eingestuft werden, sowie Bewegungsrichtung und Geschwindigkeit des Zielobjektes gegenüber dem Hintergrund vermessen werden. Dazu werden alle Zielobjekte, die in der ersten Stereoaufnahme gefunden und mit ihrer Signatur aufgezeichnet wurden, in der (um maximal eine halbe Bildbreite verschobenen) zweiten Stereoaufnahme an derselben Stelle per Korrelation gesucht und festgestellt, welche Objekte wiedergefunden wurden, also stationär sind, und welche Objekte nicht mehr am alten Ort sind, sich also bewegt haben müssen. Diese mutmaßlich bewegten Objekte werden in der zweiten Stereoaufnahme in einem Umkreis, den das gesuchte Objekt zwischen den beiden Aufnahmezeiten erreicht haben könnte (unter Zuhilfenahme von realistischen Bewegungsgleichungen), an Hand der Zielobjektliste für die zweite Stereoaufnahme gesucht (durch Signaturvergleich mit Übereinstimmung). Wird das Objekt dabei gefunden, so kann aus der Ortsdifferenz und dem Zeitintervall die Geschwindigkeit und die Bewegungsrichtung des Objektes berechnet werden. Diese Ergebnisse ermöglichen es, die Zielobjektlisten aller Aufnahmen in einem Gesamtobjektdatensatz zusammenzufassen, und aus diesem durch Spurbildung der Bewegung der bewegten Objekte einen Gesamt-Trackdatensatz des beobachteten Gebietes anlegen, der durch wiederholten Überflug über das Gebiet auch zeitlich beliebig lange fortgeführt und aufrechterhalten werden kann. Wenn der Trackdatensatz über längere Zeit aufrechterhalten werden kann entsteht so ein vollständiges Verzeichnis der Objekte mit ihrer detaillierten Signatur, sowie ein Lagebild und ein Bewegungsprofil bezüglich der gefundenen Zielobjekte in dem beobachteten Gebiet.on the other hand can the methods are also applied to already recognized target objects, to classify them according to known target object reference patterns. With this found classification, the actually found Target object patterns are recorded around the found target position, a distinctive signature of this specific target to obtain. With the help of this signature, the target object in a later Aerial photograph of the same area in a meanwhile done locomotion across from the first shot, and the object in question be classified as a moving object, as well as direction of movement and Speed of the target object to be measured against the background. These are all the target objects found in the first stereo recording and with their signature were recorded in the (by a maximum half image width shifted) second stereo recording on the same Searched by correlation and determined which objects were recovered, which are stationary, and which objects are no longer in the old place, so have to have moved. These presumed moving objects are in the second stereo recording in a radius, reached the object sought between the two recording times could have (using realistic equations of motion) Hand of the target object list for searched the second stereo recording (by signature comparison with agreement). If the object is found, then from the location difference and the time interval the speed and the direction of movement of the object. These results allow it, the target object lists of all recordings in an overall object record and from this by tracking the movement the moving objects a total track record of the observed Area by repeated overflight over the area also temporally continued for any length of time and can be sustained. If the track record over a long time can be maintained so creates a complete directory the objects with their detailed signature, as well as a situation picture and a motion profile with respect to the found target objects in the observed area.

Automatische ZielerkennungAutomatic target recognition

Die gefundenen tatsächlichen Zielsignaturen und die gefundene Zielklassifizierung können in einem Nachbearbeitungsschritt am Boden zu der an Bord-Auswertung in der Luft dazu verwendet werden, die Referenzzielobjektmuster dahingehend zu verbessern, dass z. B. mit Hilfe eines Gradientensuchverfahrens das Referenzzielobjektmuster solange verändert wird, bis die Gesamtabstandssumme des Referenzzielobjektmusters zu allen positiv klassifizierten gefundenen tatsächlichen Zielobjektmustern einen Minimalwert erreicht. Der Maximalwert der dabei beobachteten, noch positiv klassifizierten Abstände zum neuen Referenzmuster wird dabei als Abstandsschranke festgehalten, die für eine erfolgreiche Klassifizierung nicht überschritten werden darf. Dieses errechnete neue Referenzmuster wird dann im folgenden als generalisiertes Zielobjektreferenzmuster mit der ermittelten Abstandsschranke für diese Klasse verwendet. Damit können die Zielobjektreferenzmuster durch Erfahrung aus der Auswertung der tatsächlich gefundenen Zielobjekte verbessert werden und machen das System in diesem Sinne lernfähig.The Found actual Target signatures and the found target classification can be found in a post-processing step on the ground to the on-board evaluation be used in the air, the reference target object pattern to improve that z. B. by means of a Gradientensuchverfahrens the reference target object pattern is changed until the total distance sum of the reference target object pattern to all positively classified ones found actual Target object patterns reached a minimum value. The maximum value of observed while still positively classified distances to new reference pattern is recorded as a distance barrier, the for a successful classification must not be exceeded. This calculated new reference pattern is then generalized as follows Target object reference pattern with the determined distance barrier for this Class used. With that you can the target object reference patterns through experience from the evaluation of the indeed found target objects are improved and make the system in capable of learning in this sense.

Eine weitere Anwendung ist, die vorhandenen Referenzzielobjektmuster durch Einfügen neuer Muster zu ergänzen, wenn erkannt wird, dass sich die gefundenen Zielobjekte in zwei Gruppen mit kleineren zulässigen Abstandsschranken aufspalten lassen, die dann als Klassifikatoreinstellung selektiver klassifizieren als die ursprünglichen.A Another application is the existing reference target object pattern by inserting new pattern to complete, when it is detected that the target objects found in two Groups with smaller permissible Split gap barriers, which then as Klassifikatoreinstellung Classify more selectively than the original ones.

Die gefundenen Zielobjekte, die immer noch einen Anteil an Falschzielen enthalten, können im weiteren mit einem Verfahren zur automatischen Zielerkennung (ATR) über die Objektform nach gelernten Referenzformen untersucht werden. Dieses ATR-Verfahren können üblicherweise nur einfarbige Helligkeitsbilder (Grauwertmuster) verwerten.The found targets, which still have a share of false targets can contain in the further with a method for automatic target recognition (ATR) over the object shape is examined according to learned reference forms. This ATR procedure can usually only use monochrome brightness images (gray value pattern).

In einer Weiterbildung der Erfindung wird das ATR-Verfahren modifiziert, um auch mehrfarbige, z. B. drei oder vier Farbachsen umfassende multispektrale Farbräume, und daraus zusammengesetzte komplexe Farbmuster zu erkennen.In In a further development of the invention, the ATR method is modified, to multicolored, z. B. three or four color axes comprehensive multispectral color spaces, and to recognize complex color patterns composed of these.

Dies geschieht zweckmäßig dadurch, dass statt dem Helligkeitswert die normierte Abstandssumme über alle Spektralfarben des Farbraumes von einer passend gewählten Zielobjektreferenzfarbe invertiert (d. h. der auf eins normierte Wert von eins subtrahiert wird) als Helligkeitswert eingesetzt wird. Dadurch kann das ATR-Verfahren komplexe Farbmuster erkennen und trennen, die sich alleine in ihren Helligkeitswerten überhaupt nicht unterscheiden und damit nach den Helligkeitswerten alleine nicht trennbar sind.This is done appropriately, that instead of the brightness value the normalized distance sum over all Spectral colors of the color space from a suitably selected target reference color inverted (that is, subtracting the one normalized value of one is) is used as the brightness value. This makes the ATR process complex Recognize and separate color patterns that are unique in their brightness values do not differ and thus according to the brightness values alone are not separable.

Höhenbestimmungheight determination

Liegen von demselben Zielgebiet zwei Aufnahmen mit einem verwertbaren Stereowinkel (Winkel der Bildachsen der beiden Bilder) vor, so kann in einer Weiterbildung der Erfindung von den gefundenen stationären Zielobjekten eine Höhenmessung vorgenommen werden, wenn einer der berechneten Zieldurchmesser in Richtung der erwarteten Stereoverschiebung des untersuchten Objektes liegt. Dazu wird ein Bereich längs der Zeile/Spalte in dem ersten Bild, der das Objekt vollständig überdeckt, Bildpunkt für Bildpunkt über das das zweite Bild geschoben, und für jede Position die Summe der Abstandsquadrate in HSV für das Fenster im 1. Bild und im 2. Bild berechnet. Die Position mit der geringsten Abstandssumme ist dann die wahrscheinlichste Position des Objektes in dem 2. Bild. Unter Berücksichtigung des Stereowinkels kann daraus die gemessene Höhe des Objektes über dem Hintergrund berechnet werden.Lie from the same target area two recordings with a usable stereo angle (Angle of the image axes of the two images) before, so can in one Development of the invention of the found stationary targets made a height measurement when one of the calculated target diameters in the direction of expected stereo shift of the examined object is located. This will be an area along the row / column in the first image that completely covers the object, Pixel for Pixel above that pushed the second picture, and for each position the sum of Distance squares in HSV for the window in the first picture and in the second picture is calculated. The position with the least distance is then the most likely position of the object in the second picture. Taking into account the stereo angle it can be the measured height of the object over be calculated against the background.

Dies kann bei Verwendung einer Linescanner-Kamera oder einer nicht-stabilisierten Full-frame-Kamera bereits mit den nicht rektifizierten Rohdaten ausgeführt werden. Damit wird zweckmäßig erreicht, dass eine Stereohöhe über Hintergrund Vermessung der interessierenden Ziel-Objekte bereits im Flug direkt nach der Aufnahme mit Bordmitteln erzielt werden kann, und nicht erst nach dem Flug am Boden nach der zeitaufwendigen Rektifizierungsrechnung. Dadurch kann direkt nach der Aufnahme das Bildmaterial nach Zielen abgesucht werden, die eine gemessene Höhe haben, und man kann damit Falschziele, die keine ausreichende Höhe haben, aus der weiteren Bearbeitung ausschließen. Dadurch kann die Stereohöhenvermessung von Zielobjekten auch in laufenden Überwachungsflügen zur sofortigen Bildauswertung eingesetzt werden, was die Wirksamkeit der Überwachung wesentlich verbessern kann, ohne den Aufwand übermäßig zu steigern, z. B. können so getarnte Ziele leichter erkannt werden oder flache Abbildungen von Objekten von echten höhebehafteten Objekten unterschieden werden.This can when using a line scanner camera or a non-stabilized Full-frame camera already with the unrectified raw data accomplished become. This is achieved appropriately, that a stereo height over background Surveying the target objects of interest directly in flight can be achieved after admission with on-board means, and not only after the flight on the ground after the time-consuming rectification calculation. This allows the footage to be targeted immediately after shooting be scanned, which have a measured height, and you can thus false targets, not enough height exclude from further processing. This allows the stereo height measurement of target objects also in ongoing surveillance flights to Immediate image evaluation will be used, reflecting the effectiveness the surveillance can significantly improve without overly increasing the effort, z. B. can do so camouflaged targets are more easily recognized or flat images of Objects of real high-heeled Objects are distinguished.

Claims (14)

Verfahren zur Auswertung von Bilder in einer Multispektralkamera, wobei digitale Multispektralbilddaten von einer Bildsensoreinheit der Multispektralkamera zu einer Verarbeitungseinheit der Multispektralkamera übertragen und für jeden Bildpunkt eines von der Bildsensoreinheit erzeugten digitalen Multispektralbildes ein Farbhistogramm im HSV-Farbraum erzeugt werden, dadurch gekennzeichnet, dass die Helligkeitswerte der einzelnen Bildpunkte skaliert werden und eine datenbankgestützte Ermittlung und Markierung der Übergangspunkte zwischen einem Zielobjekt und dem Hintergrund durchgeführt wird, wobei ein Satz von Differenzwerten der Farbe und Textur des zu untersuchenden Bildpunktes und der mittleren Farbe und Textur einer Anzahl von bezüglich des zu untersuchenden Bildpunktes in der gleichen Zeile/Spalte jeweils vor/darüber und dahinter/darunter direkt benachbarter Bildpunkte berechnet werden, wobei die Farbe gekennzeichnet ist durch die Mittelwerte von Farbton, Farbsättigung und Helligkeit und die Textur gekennzeichnet ist durch die Standardabweichungen von Farbton, Farbsättigung und Helligkeit und wobei zur Ermittlung von Zielobjekten zeilen-/spaltenweise zweier in einer Zeile/Spalte angeordneten durch eine vorgebbare Anzahl von Bildpunkten beabstandeten zweidimensionalen Abtastfensters (2, 3) über das digitale Multispektralbild (8) verschoben werden, wobei das Zielobjekt-Abtastfenster (2) ein vorgebbares Referenzbild (4) eines Farbenmusters eines Zielobjektes und das Hintergrund-Abtastfenster (3) ein vorgebbares Referenzmuster (5) eines Farbenmusters eines Hintergrundes enthält und ein Satz von Abstandsquadratsummen der HSV-Werte jedes Bildpunktes des Zielobjekt-/Hintergrund-Abtastfensters (2, 3) zu jedem Bildpunkt eines der Größe entsprechenden Zielobjekt-/Hintergrundfensters (7, 7a) auf dem digitalen Multispektralbild (8) berechnet wird, wobei dem Bildpunkt des Zielobjekt-/Hintergrund-Abtastfensters (2, 3) der jeweils kleinste Wert des Satzes von Abstandsquadratsummen zugewiesen wird und der Gesamtabstand des Zielobjekt-/Hintergrundfensters (7, 7a) zu dem Zielobjekt-/Hintergrund-Abtastfenster (2, 3) aus der Summe der Einzelabstände der einzelnen Bildpunkte berechnet wird, wobei die Lage des Zielobjekt-/Hintergrundfensters (7, 7a) auf dem digitalen Multispektralbild (8) als Lage ei nes Zielobjektes definiert wird, wenn der Abstand des Zielobjekt-Abtastfensters (2) zum Zielobjektfenster (7) kleiner ist als der Abstand des Hintergrund-Abtastfensters (3) zum Zielobjektfenster (7) und der Abstand des Zielobjekt-Abtastfensters (2) zum Hintergrundfenster (7a) größer ist als der Abstand des Hintergrund-Abtastfensters (3) zum Hintergrundfenster (7a) und der Abstand des Zielobjekt-Abtastfensters (2) zum Zielobjektfenster (7) kleiner ist als ein vorgebbarer Schwellwert.A method for evaluating images in a multispectral camera, digital multispectral image data being transmitted from an image sensor unit of the multispectral camera to a processing unit of the multispectral camera and a color histogram generated in the HSV color space for each pixel of a digital multispectral image generated by the image sensor unit, characterized in that the brightness values of a pixel-based determination and marking of the transition points between a target object and the background is performed, wherein a set of difference values of the color and texture of the pixel to be examined and the mean color and texture of a number of relative to the pixel to be examined in the same line / column respectively in front of / above and behind / below directly adjacent pixels are calculated, the color being characterized by the average values of hue, color saturation and Brightness and the texture is characterized by the standard deviations of hue, color saturation and brightness and wherein for the determination of target objects row / column by two arranged in a row / column by a predetermined number of pixels spaced two-dimensional sampling window ( 2 . 3 ) via the digital multispectral image ( 8th ), whereby the target object sampling window ( 2 ) a prescribable reference image ( 4 ) of a color pattern of a target object and the background scan window ( 3 ) a definable reference pattern ( 5 ) of a color pattern of a background and a set of equidistant square sums of the HSV values of each pixel of the target / background scan window (FIG. 2 . 3 ) to each pixel of a size target / background window ( 7 . 7a ) on the digital multispectral image ( 8th ), wherein the pixel of the target / background scan window ( 2 . 3 ) is assigned the smallest value of the set of distance sums sums and the total distance of the target object / background window ( 7 . 7a ) to the target / background scan window ( 2 . 3 ) is calculated from the sum of the individual distances of the individual pixels, wherein the Location of the target object / background window ( 7 . 7a ) on the digital multispectral image ( 8th ) is defined as the position of a target object when the distance of the target object scanning window ( 2 ) to the target object window ( 7 ) is smaller than the distance of the background sampling window ( 3 ) to the target object window ( 7 ) and the distance of the target scan window ( 2 ) to the background window ( 7a ) is greater than the distance of the background sampling window ( 3 ) to the background window ( 7a ) and the distance of the target scan window ( 2 ) to the target object window ( 7 ) is less than a predefinable threshold. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Zielobjekt-/Hintergrundabtastfenster (2, 3) und die zugehörigen Farbmuster (4, 5) des Zielobjektes und des Hintergrundes in eine vorgebbare Anzahl von Teilfenster unterteilt werden.Method according to claim 1, characterized in that the target object / background scanning windows ( 2 . 3 ) and the associated color patterns ( 4 . 5 ) of the target object and the background are subdivided into a predeterminable number of subwindows. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Orientierung (a, b, c, d) eines Zielobjekts bestimmt wird durch die Drehung des in mehrere Teilfenster unterteilte Zielobjektfensters (2) mit dem zugehörigen Farbmuster (4) um eine Drehachse zMethod according to claim 2, characterized in that the orientation (a, b, c, d) of a target object is determined by the rotation of the target object window divided into a plurality of partial windows ( 2 ) with the associated color pattern ( 4 ) about a rotation axis z Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt Ermittlung von Zielobjekten eine Klassifikation der Übergangs-Bildpunkte enthält, wobei entlang der Zeile/Spalte eine vorgebbare Anzahl von zu untersuchenden Bildpunkten vor/über und nach/unter einem ermittelten Übergangs-Bildpunkt eine Klassifikation der Farbe des Übergangs-Bildpunktes nach Farben eines vorgebbaren Farbensatzes von Zielobjekt- und Hintergrundübergängen durchgeführt wird.Method according to claim 1, characterized in that that the step determination of target objects is a classification contains the transition pixels, where along the row / column a predefinable number of to be examined Pixels before / about and after / under a detected transition pixel a classification of the color of the transition pixel by color a predeterminable color set of target and background transitions. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Schritt Klassifikation von Übergangs-Bildpunkten die Berechnung der normierten Abstandsquadrate der HSV-Werte der einzelnen Farben des vorgebba ren Farbensatzes zu dem HSV-Wert jedes zu untersuchenden Bildpunktes enthält, wobei jedem zu untersuchenden Bildpunkt jeweils das niedrigste normierte Abstandsquadrat zugeordnet wird und wobei derjenige Bildpunkt als neuer Übergangs-Bildpunkt markiert wird, dessen normiertes Abstandsquadrat am geringsten ist.Method according to claim 4, characterized in that that the step classification of transition pixels the calculation the normalized distance squares of the HSV values of the individual colors of the predeterminable color set to the HSV value of each to be examined Contains pixel wherein each pixel to be examined in each case the lowest normalized Distance square is assigned and wherein the pixel as new transition pixel is marked whose normalized square distance is the lowest. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass mittels zweier unter einem vorgebbaren Stereowinkel aufgenommener Multispektralbilder die Höhe eines Zielobjektes bestimmt wird ohne vorher eine Rektifizierung des Bildes vorzunehmen.Method according to one of claims 1 to 5, characterized by means of two multispectral images recorded at a predeterminable stereo angle the height a target object is determined without a prior rectification to take the picture. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass mittels zweier unter einem vorgebbaren Stereowinkel aufgenommener Multispektralbilder die Geschwindigkeit und die Bewegungsrichtung eines Zielobjektes berechnet wird ohne vorher eine Rektifizierung des Bildes vorzunehmen.Method according to one of claims 1 to 6, characterized by means of two multispectral images recorded at a predeterminable stereo angle the speed and the direction of movement of a target object is calculated without first rectifying the image. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Schritt der Höhenbestimmung eines Zielobjekts den Schritt enthält, dass ein Bereich im ersten Multispektralbild, welcher das Zielobjekt vollständig beinhaltet, längs der Zeile/Spalte im ersten Multispektralbild über das zweite Multispektralbild Bildpunkt für Bildpunkt geschoben und für jede Position unter voller Ausnutzung des Spektralkontrastes die Summe der Abstandsquadrate zwischen den HSV-Werten im ersten Multispektralbild zu den HSV-Werten im zweiten Multispektralbild berechnet wird, wobei die Position mit der geringsten Abstandsquadratsumme als die wahrscheinlichste Position des Zielobjekts im zweiten Multispektralbild angenommen wird.Method according to Claim 6, characterized that the step of height determination of a target object contains the step that an area in the first Multispectral image, which completely includes the target object, along the Line / column in the first multispectral image over the second multispectral image pixel for picture point pushed and for each position taking full advantage of the spectral contrast the Sum of the distance squares between the HSV values in the first multispectral image is calculated to the HSV values in the second multispectral image, where the least squares position is the most likely Position of the target object in the second multispectral image assumed becomes. Verfahren nach einem der vorangehenden Ansprüche 1–8, dadurch gekennzeichnet, dass jedes ermittelte Zielobjekt mit einem Verfahren zur automatischen Zielerkennung über die Objektform nach gelernten Referenzmustern untersucht wird.Method according to one of the preceding claims 1-8, characterized characterized in that each detected target object with a method for automatic target recognition via the object shape is examined for learned reference patterns. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass für jeden Bildpunkt des ermittelten Zielobjektes die normierte Abstandsumme zu einem vorgebbaren multidimensionalen und multispektralen Farbraum berechnet, diese Abstandssumme von einer vorgebbaren Zielobjektreferenzfarbe subtrahiert und dieses Ergebnis als Helligkeitswert für den Bildpunkt verwendet wird.Method according to claim 9, characterized in that that for each pixel of the determined target object, the normalized distance sum to a predeterminable multidimensional and multispectral color space calculates this distance sum from a predefinable target reference color subtracted and this result as a brightness value for the pixel is used. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass das Verfahren zur automatische Zielerkennung mittels eines neuronalen Netzwerkes durchgeführt wird.Method according to claim 9 or 10, characterized that the method for automatic target recognition by means of a neural network performed becomes. Multispektralkamera zur Durchführung eines der vorangehenden Verfahren zur Überwachung von Zielobjekten mit einer digitalen Bildsensoreinheit zur Aufnahme von Bildern und zur Erzeugung von digitalen Multispektralbilddaten und einer Verarbeitungseinheit zum Verarbeiten der von der Bildsensoreinheit an die Verarbeitungseinheit übergebenen Multispektralbilddaten, dadurch gekennzeichnet, dass die Verarbeitungseinheit eine Berechnungseinheit zur Berechnung eines Farbhistogramms im HSV-Farbraum für jeden Bildpixel eines digitalen Bildes und einen Klassifikator zur datenbankgestützten Erkennung von Grenzen zwischen Zielobjekten und Zielobjekthintergrund umfasst.Multispectral camera for performing any of the foregoing Procedure for monitoring of target objects with a digital image sensor unit for recording of images and for generating digital multispectral image data and a processing unit for processing the image sensor unit passed to the processing unit Multispectral image data, characterized in that the processing unit a calculation unit for calculating a color histogram in HSV color space for each image pixel of a digital image and a classifier for database-driven Detection of boundaries between target objects and target background includes. Multispektralkamera nach Anspruch 12, dadurch gekennzeichnet, dass zur datenbankgestützten Erkennung von Grenzen zwischen Zielobjekten und Zielobjekthintergrund eine Zielobjektreferenzfarbtabelle und eine Hintergrundreferenzfarbtabelle vorhanden ist.A multi-spectral camera according to claim 12, characterized in that for database-aided recognition of boundaries between target objects and target background, a target reference color table and a background reference color table is available. Multispektralkamera nach Anspruch 12, dadurch gekennzeichnet, dass die Multispektralkamera eine Multispektral-Stereokamera ist, und eine Berechnungseinheit zur Bestimmung der Höhe eines Zielobjektes aus zwei mit einem Stereowinkel aufgenommenen Multispektralbildern vorhanden ist.Multispectral camera according to claim 12, characterized in that that the multispectral camera is a multispectral stereo camera, and a calculation unit for determining the height of a target object from two present with a stereo angle recorded multispectral images is.
DE102006060612A 2006-12-21 2006-12-21 Method for monitoring target objects and multispectral camera Active DE102006060612B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006060612A DE102006060612B4 (en) 2006-12-21 2006-12-21 Method for monitoring target objects and multispectral camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006060612A DE102006060612B4 (en) 2006-12-21 2006-12-21 Method for monitoring target objects and multispectral camera

Publications (2)

Publication Number Publication Date
DE102006060612A1 DE102006060612A1 (en) 2008-06-26
DE102006060612B4 true DE102006060612B4 (en) 2008-08-28

Family

ID=39431544

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006060612A Active DE102006060612B4 (en) 2006-12-21 2006-12-21 Method for monitoring target objects and multispectral camera

Country Status (1)

Country Link
DE (1) DE102006060612B4 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008038527A1 (en) 2008-08-20 2010-02-25 Eads Deutschland Gmbh Method for evaluating object elements in images of multispectral camera or synthetic aperture radar device, involves forming target object hypothesis
DE102012002321B4 (en) 2012-02-06 2022-04-28 Airbus Defence and Space GmbH Method for recognizing a given pattern in an image data set
DE102017203236A1 (en) 2017-02-28 2018-08-30 Conti Temic Microelectronic Gmbh Device and method for detecting a traffic light phase for a motor vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19955919C1 (en) * 1999-11-20 2001-05-31 Daimler Chrysler Ag Object recognition method for pixel images provides reduced image from input image which is divided by filtering into at least 2 filtered images each used for providing set of classification images
DE102005009626A1 (en) * 2005-02-24 2006-08-31 Universität Tübingen Camera for tracking objects, has processing unit with region of interest-sampling unit, and tracking unit with particle filter, which are provided to determine tracking data of objects to be tracked on basis of image data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19955919C1 (en) * 1999-11-20 2001-05-31 Daimler Chrysler Ag Object recognition method for pixel images provides reduced image from input image which is divided by filtering into at least 2 filtered images each used for providing set of classification images
DE102005009626A1 (en) * 2005-02-24 2006-08-31 Universität Tübingen Camera for tracking objects, has processing unit with region of interest-sampling unit, and tracking unit with particle filter, which are provided to determine tracking data of objects to be tracked on basis of image data

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BALA Jerzy, et al.: "Applications of Distributed Mining Techniques For Knowledge Discovery in Dis- persed Sensory Data", 7th Joint Conference on In- formation Sciences-JCIS 2003, Cary, NC, USA, Sep 26-30, 2003, Data Mining Session. Online ab- rufbar unter http://www.dsri.com/DatamatLMMFCdist- 071503.pdf
BALA Jerzy, et al.: "Applications of Distributed Mining Techniques For Knowledge Discovery in Dispersed Sensory Data", 7th Joint Conference on Information Sciences-JCIS 2003, Cary, NC, USA, Sep 26-30, 2003, Data Mining Session. Online abrufbar unter http://www.dsri.com/DatamatLMMFCdist071503.pdf *
DU Peijun, et al.: "Study on content-based remote sensing image retrieval", IEEE, 25-29 July 2005, Proceedings of the Geoscience and Remote Sensing Symposium 2005. (IGARSS '05), Volume: 2, page(s): 707-710, ISBN: 0-7803-9050-4 *
XU Richard Y.D., et al.: "Robust real-time trac- king of non-rigid objects", ACM, 2004, Procee- dings of the Pan-Sydney area workshop on Visual information processing, Conference Proceeding Series, Vol. 100, Pages: 95-98, ISBN~ISSN:1445- 1336, 1-920682-18-X
XU Richard Y.D., et al.: "Robust real-time tracking of non-rigid objects", ACM, 2004, Proceedings of the Pan-Sydney area workshop on Visual information processing, Conference Proceeding Series, Vol. 100, Pages: 95-98, ISBN~ISSN:14451336, 1-920682-18-X *

Also Published As

Publication number Publication date
DE102006060612A1 (en) 2008-06-26

Similar Documents

Publication Publication Date Title
DE102013205950B4 (en) Roadside detection method
DE102011106050B4 (en) Shadow removal in an image captured by a vehicle-based camera for detection of a clear path
AT506928B1 (en) METHOD OF VIDEO ANALYSIS
DE102011106052B4 (en) Shadow removal in an image captured by a vehicle based camera using a nonlinear illumination invariant core
DE112013001858T5 (en) Multiple-hint object recognition and analysis
EP0815539B1 (en) Method of detecting moving objects in chronologically successive images
DE102004018813A1 (en) Method for detecting and / or tracking objects
DE202012013403U1 (en) Capture and process adaptive images with image analysis feedback
EP2174260A2 (en) Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program
DE102013205854B4 (en) Method for detecting a free path using temporary coherence
DE102013212495A1 (en) Method and device for inspecting a contoured surface, in particular the underbody of a motor vehicle
EP2387017B1 (en) Method and device for generating traffic data from digital aerial image sequences
DE102012002321B4 (en) Method for recognizing a given pattern in an image data set
DE102017103540A1 (en) Determine an angular position of a trailer without a target mark
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
DE102012220619A1 (en) Color detection device for a vehicle
DE102015211874A1 (en) Object detection device
DE102006060612B4 (en) Method for monitoring target objects and multispectral camera
DE102019204602B4 (en) Method and device for masking objects contained in an image
EP2907105A2 (en) Image processing method and method for tracking missiles
DE102019209473A1 (en) Method and device for the rapid detection of repetitive structures in the image of a street scene
DE102022202548B3 (en) Method for training a computer program product
DE102019220616B4 (en) PROCEDURE FOR SIMULTANEOUS LOCATION AND IMAGE
DE10001282C2 (en) Method for autonomous detection of helicopters
DE4211171C2 (en) Process for recognizing patterns of interest

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R081 Change of applicant/patentee

Owner name: AIRBUS DEFENCE AND SPACE GMBH, DE

Free format text: FORMER OWNER: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE

Effective date: 20140814