DE102006060612B4 - Method for monitoring target objects and multispectral camera - Google Patents
Method for monitoring target objects and multispectral camera Download PDFInfo
- Publication number
- DE102006060612B4 DE102006060612B4 DE102006060612A DE102006060612A DE102006060612B4 DE 102006060612 B4 DE102006060612 B4 DE 102006060612B4 DE 102006060612 A DE102006060612 A DE 102006060612A DE 102006060612 A DE102006060612 A DE 102006060612A DE 102006060612 B4 DE102006060612 B4 DE 102006060612B4
- Authority
- DE
- Germany
- Prior art keywords
- target
- color
- target object
- background
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012544 monitoring process Methods 0.000 title claims description 8
- 230000007704 transition Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- 239000003086 colorant Substances 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 5
- 230000008901 benefit Effects 0.000 claims description 2
- 230000003595 spectral effect Effects 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000010006 flight Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 238000005352 clarification Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Verfahren
zur Auswertung von Bilder in einer Multispektralkamera, wobei digitale
Multispektralbilddaten von einer Bildsensoreinheit der Multispektralkamera
zu einer Verarbeitungseinheit der Multispektralkamera übertragen
und für
jeden Bildpunkt eines von der Bildsensoreinheit erzeugten digitalen
Multispektralbildes ein Farbhistogramm im HSV-Farbraum erzeugt werden,
dadurch
gekennzeichnet, dass
die Helligkeitswerte der einzelnen Bildpunkte
skaliert werden und eine datenbankgestützte Ermittlung und Markierung
der Übergangspunkte
zwischen einem Zielobjekt und dem Hintergrund durchgeführt wird,
wobei
ein Satz von Differenzwerten der Farbe und Textur des
zu untersuchenden Bildpunktes und der mittleren Farbe und Textur
einer Anzahl von bezüglich
des zu untersuchenden Bildpunktes in der gleichen Zeile/Spalte jeweils
vor/darüber und
dahinter/darunter direkt benachbarter Bildpunkte berechnet werden,
wobei die Farbe gekennzeichnet ist durch die Mittelwerte von Farbton,
Farbsättigung
und Helligkeit und die Textur gekennzeichnet ist durch die Standardabweichungen
von Farbton, Farbsättigung
und Helligkeit und wobei
zur Ermittlung von Zielobjekten zeilen-/spaltenweise
zweier in einer Zeile/Spalte angeordneten durch eine vorgebbare...Method for evaluating images in a multispectral camera, digital multispectral image data being transmitted from an image sensor unit of the multispectral camera to a processing unit of the multispectral camera and a color histogram being generated in the HSV color space for each pixel of a digital multispectral image generated by the image sensor unit,
characterized in that
the brightness values of the individual pixels are scaled and a database-aided determination and marking of the transition points between a target object and the background is performed, wherein
calculating a set of difference values of the color and texture of the pixel to be examined and the mean color and texture of a number of pixels relative to the pixel to be examined in the same row / column respectively before / above and behind / directly adjacent pixels, the color being marked is characterized by the averages of hue, saturation, and brightness, and the texture is characterized by the standard deviations of hue, chroma, and brightness, and where
for the determination of target objects row-wise / column-wise two arranged in a row / column by a predefinable ...
Description
Die Erfindung betrifft ein Verfahren zur Überwachung von Zielobjekten gemäß den Merkmalen des Anspruchs 1 und eine Multispektralkamera gemäß den Merkmalen des Anspruchs 17.The The invention relates to a method for monitoring target objects according to the characteristics of Claim 1 and a multi-spectral camera according to the features of the claim 17th
Im Bereich der militärischen Aufklärung beispielsweise werden mittels Sensoren Szenarien insbesondere in einem Gelände erfasst, die nach dem Vorhandensein von Einrichtungen, Fahrzeugen, Infrastruktur-Merkmalen und dergleichen untersucht werden sollen. Hierzu werden mittels Überwachungskameras eine große Anzahl von Bilder zur Verfügung gestellt, welche unter vorbestimmten Zeitbedingungen zu bewerten sind. Die zu erkennenden Objekte haben beliebige Abmessungen und können eine diese charakterisierende Struktur mit einer mehr oder weniger grossen Komplexität aufweisen.in the Field of military clarification, clearing up of something For example, using sensors scenarios, especially in a terrain recorded after the presence of facilities, vehicles, Infrastructure features and the like should be investigated. This will be done by means of surveillance cameras a big Number of pictures available which are evaluated under predetermined time conditions are. The objects to be recognized have any dimensions and can one this characterizing structure with a more or less large complexity exhibit.
Mit bekannten Systemen ist eine Boden-Aufklärung und -Entdeckung und anhaltende Boden- Überwachung großer Areale (z. B. 100 km bis 1000 km Grenzgebiet mit einigen Kilometern Tiefe) aus der Luft von Personen-, Tragtier-, und Fahrzeug- Zielobjekten möglich. Hierzu werden üblicherweise Multispektral-Stereo-Kameras verwendet, welche an Fluggeräten montiert die Daten im Flug aufzeichnen. Die Daten werden nach dem Flug am Boden ausgewertet, was im allgemeinen Stunden bis Tage dauert, bis die Aufklärungs- und Entdeckungsergebnisse vorliegen. Eine Sofortüberwachung ist damit nicht möglich. Andererseits werden Videokameras, teilweise auch mit Entdeckungshilfen ausgestattet, zur permanenten Überwachung kleinerer Areale aus der Luft eingesetzt, wobei die Zielsuche und Lagebeurteilung dem Beobachter überlassen bleibt, und die Daten einfach für spätere Nachbearbeitung aufge zeichnet werden. Zur Überwachung großer Areale ist dieses Verfahren nicht geeignet wegen des extrem hohen Aufwandes dafür.With known systems is a soil reconnaissance and detection and persistent Ground monitoring greater Area (eg 100 km to 1000 km border area with a few kilometers Depth) from the air of passenger, carrier, and vehicle targets possible. These are usually Used multispectral stereo cameras mounted on aircraft record the data in flight. The data will be sent to you after the flight Soil evaluated, which generally takes hours to days until the reconnaissance and discovery results are available. An immediate monitoring is thus not possible. on the other hand are video cameras, partly also equipped with detection aids, for permanent monitoring smaller areas used from the air, with the target search and Assessment to the observer stays, and the data easy for latter Postprocessing will be recorded. For monitoring large areas This method is not suitable because of the extremely high cost for this.
Aus
Aus XU Richard Y. D. et al: "Robus real-time tracking of non-rigid objects"; ACM; 2004; Proceedings of the Pan-Sydney area workshop o Visual information processing; Conference Proceeding Series, Vol. 100, Seiten 95–98; ISBN-ISSN: 1445-1336, 1-920682-18-X ist ein Verfahren bekannt, welches von einem Benutzer ausgewählte und sich bewegende Objekte in Videosequenzen verfolgen kann.Out XU Richard Y.D. et al: "Robus real-time tracking of non-rigid objects "; ACM; 2004; Proceedings of the Pan-Sydney area workshop o Visual information processing; Conference Proceeding Series, Vol. 100, pages 95-98; ISBN-ISSN: 1445-1336, 1-920682-18-X, a method is known which of selected by a user and can track moving objects in video sequences.
BALA Jerzy, et al. "Applications of Distributed Mining Techniques for Knowledge Discovery in Dispersed Sensory Data"; 7th Joint Conference in Information Sciences – JCIS 2003, Cary, NC, USA, Sep. 26–30, 2003, Data Mining Session beschreibt ein Verfahren, welches aus Bildern Zielobjekte erkennen kann. Hierzu werden verschiedene Arten von Masken über die aufgenommenen Bilder gelegt.BALA Jerzy, et al. "Applications of Distributed Mining Techniques for Knowledge Discovery in Dispersed Sensory Data "; 7th Joint Conference on Information Sciences - JCIS 2003, Cary, NC, USA, September 26-30, 2003, Data Mining Session describes a procedure which consists of Can recognize images of target objects. These are different types from masks over the pictures taken.
DU Peijun, et al.: "Study an content-based remote sensing image retrieval", IEEE, 25-29 July 2005, Proceedings of the Geoscience and Remote Sensing Symposium 2005. (IGARSS '05), Volume 2, page(s): 707–710; ISBN: 0-7803-9050-4 beschreibt ein Verfahren, bei welchem bei der Fernerkundung über Masken datenbankgestützt Farb- und Texturdaten verglichen werden.YOU Peijun, et al .: "Study to content-based remote sensing image retrieval, "IEEE, 25-29 July 2005, Proceedings of the Geoscience and Remote Sensing Symposium 2005. (IGARSS '05), Volume 2, page (s): 707-710; ISBN: 0-7803-9050-4 describes a method in which remote sensing via masks database support Color and texture data are compared.
Es ist Aufgabe der Erfindung, ein Verfahren anzugeben, mit welchem eine Überwachung von Zielobjekten während des Überflugs eines zu beobachtenden Gebiets möglich ist. Eine weitere Aufgabe besteht in der Bereitstellung einer Multispektralkamera, welche in der Lage ist, beim Überflug über ein großes Areal in Echtzeit Zielobjekte mit geringem Kontrast zum Hintergrund zu entdecken und zu klassifizieren.It Object of the invention to provide a method with which a surveillance of target objects during of the overflight of an area to be observed is. Another object is to provide a multispectral camera, which is able to fly over one great Real-time target Object with low contrast to the background to discover and classify.
Vorgeschlagen wird eine Multispektralkamera zur Überwachung von Zielobjekten mit einer digitalen Bildsensoreinheit zur Aufnahme von Bildern und zur Erzeugung von digitalen Multispektralbilddaten und einer Verarbeitungseinheit zum Verarbeiten der von der Bildsensoreinheit an die Verarbeitungseinheit übergebenen Multispektralbilddaten, bei der die Verarbeitungseinheit eine Berechnungseinheit zur Berechnung eines Farbhistogramms im HSV-Farbraum für jeden Bildpixel eines digitalen Bildes und einen Klassifikator zur datenbankgestützten Erkennung von Grenzen zwischen Zielobjekten und Zielobjekthintergrund umfasst.proposed becomes a multispectral camera for monitoring target objects with a digital image sensor unit for taking pictures and for generating digital multispectral image data and a processing unit for processing the data transferred from the image sensor unit to the processing unit Multispectral image data in which the processing unit has a calculation unit for Calculation of a color histogram in the HSV color space for each Image pixels of a digital image and a classifier for database-supported recognition of boundaries between target objects and target background.
Die Verarbeitung der Bilddaten erfolgt direkt in der Kamera, so dass nicht der gesamte Datenstrom in voller Auflösung an eine externe Verarbeitungseinheit, z. B. eine Bodenstation übermittelt werden muss. Detektierten Zielobjekte werden an die Bodenstation übermittelt.The Processing of image data is done directly in the camera, so that not the entire full-resolution data stream to an external processing unit, z. B. transmitted a ground station must become. Detected target objects are transmitted to the ground station.
In einer Weiterbildung der Erfindung ist die Multispektralkamera eine Multispektral-Stereokamera, und eine Berechnungseinheit zur Bestimmung der Höhe eines Zielobjektes aus zwei mit einem Stereowinkel aufgenommenen Multispektralbildern ist vorhanden.In In a further development of the invention, the multispectral camera is a Multispectral stereo camera, and a calculation unit for determining the height of a target object from two is present with a stereo angle recorded multispectral images.
Liegen von demselben Zielgebiet zwei Aufnahmen mit einem verwertbaren Stereowinkel (Winkel der Bildachsen der beiden Bilder) vor, so kann von den gefundenen stationären Zielobjekten eine Höhenmessung vorgenommen werden.If two images with a usable stereo angle (angle of the image axes of the two images) are present from the same target area, one of the stationary target objects found can be used Altitude measurement be made.
Das der Erfindung zugrundeliegende Problem wird auch durch ein Verfahren gemäß den Merkmalen des Anspruchs 1 gelöst.The The problem underlying the invention is also due to a method according to the characteristics of claim 1.
Damit ist eine Bilderfassung durch eine schmalbandige Multispektral-(Blau, Grün, Rot, Nahes-Infrarot)-Luftbildkamera und zur automatischen Echtzeitbildauswertung, Zielobjekt -Klassifizierung und -Erkennung, und zum gegebenenfalls Anlegen einer Zielobjekt-Trackliste zur Zielverfolgung an Bord im Fluge möglich. Die automatische Bildauswertung beruht auf der Zielklassifizierung vor einem bestimmten zugehörigen Hintergrund unter Ausnutzung der besonderen Informationsgehalte von Stereo-Multispektral-Aufnahmen. Dabei werden Ziele mit geringem Kontrast aus einem Hintergrund mit vielen potentiellen Falschzielen mit sehr geringer Falschalarmrate und hoher Zuverlässigkeit entdeckt, klassifiziert und erkannt, und bewegte Ziele werden als Bewegtziele erkannt und ihr Geschwindigkeitsvektor gemessen, und von den gefundenen Zielen wird eine Zielobjekt-Trackliste angelegt mit Ziel-Signatur, -Position, und -Geschwindigkeitsvektor zur weiteren Zielverfolgung. Die Auswertung im Flug erlaubt auch eine signifikante Datenreduktion der an die Bodenstation zu übermittelnden Daten.In order to is an image acquisition by a narrow-band multispectral (blue, Green red, Near-infrared) aerial camera and for automatic real-time image analysis, Target object classification and detection, and if necessary Create a target track list for target tracking aboard Flights possible. The automatic image analysis is based on the target classification in front of a specific associated Background taking advantage of the special information content of stereo multispectral recordings. This will be low contrast targets from a background with many potential false targets with very low false alarm rate and high reliability discovered, classified and recognized, and moving goals are considered Detected moving targets and measured their velocity vector, and of the found goals, a target object track list is created with target signature, position, and velocity vector for further target tracking. The evaluation in flight also allows a significant data reduction the to be transmitted to the ground station Dates.
Üblicherweise erzeugt eine Multispektralkamera Bilder mit Bilddaten im RGB Format. Die Bilddaten werden aus dem RGB Format in das HSV (Farbton, Farbsättigung, Helligkeit) Format umgesetzt, in dem alle weiteren Berechnungen durchgeführt werden.Usually A multispectral camera generates images with image data in RGB format. The image data is converted from the RGB format into the HSV (hue, color saturation, Brightness) format, in which all further calculations carried out become.
Die Erfindung wird im Weiteren anhand von Figuren näher erläutert. Es zeigen:The The invention will be explained in more detail with reference to figures. Show it:
In
Weiterbildung der Erfindung wird die Helligkeitsverteilung im Kamerabild
in dunklen und hellen Bildpartien in Richtung einer einheitlichen
Modulationstiefe verbessert (
Entdeckung von einfarbigen ZielobjektenDiscovery of monochrome targets
Variante 1version 1
Zur
Erkennung von im Wesentlichen einfarbigen Zielobjekten werden die
verbesserten Bilder von einem Farbklassifikator (1. Farbklassifikator)
zeilenweise oder spaltenweise untersucht (
Hierzu werden in einer ersten Ausgestaltung des Farbklassifikators für die gesuchten Zielobjekte zunächst eine Zielobjektreferenzfarbtabelle der zulässigen Zielobjektfarben und Zielobjekttexturen angelegt. Ebenso wird für alle zulässigen Hintergründe, vor denen Zielobjekte gesucht werden können, eine Hintergrundreferenzfarbtabelle angelegt.For this be in a first embodiment of the color classifier for the sought Target objects first a target object reference color table of the allowed target colors and Target object textures created. Likewise, for all legal backgrounds, before which target objects can be searched, a background reference color table created.
Unter
dem Begriff Klassifikatorfenster
Die
Farbe eines Ziels oder des Hintergrunds ist dabei gekennzeichnet
durch Mittelwerte von Farbton, Farbsättigung, und Helligkeit über einem
Klassifikatorfenster
Zweckmäßig wird
in einem Bereich
Bei komplexer Farbgebung entstehen bei diesem Verfahrenschritt aber noch viele Fehlalarme. Die Fehlalarme können zweckmäßig dadurch stark reduziert werden, das nur zusammengehörige Hintergrund-zu-Ziel und darauf direkt folgende Ziel-zu-Hintergrund Übergänge, die nicht durch weitere Übergänge getrennt sind, als gültiges Paar gewertet und für die weitere Berechnung weiterverwendet werden. Dieser Farbklassifikator ist anwendbar auf Ziele, die einen ausreichenden Farb- oder Textur-Kontrast gegenüber dem Hintergrund haben.at complex coloring arise in this process step but many false positives The false alarms can expediently greatly reduced Be that only together Background-to-destination and then directly following target-to-background transitions, the not separated by further transitions are as valid Couple scored and for the further calculation will continue to be used. This color classifier is applicable to targets that have sufficient color or texture contrast over the Have background.
Die Lage des vom Klassifikator bestimmten Übergangs stimmt auf Grund der statistischen Natur des Prozesses, der nur Mittelwerte und Standardabweichungen berücksichtigt, nicht genau mit der optisch wahrnehmbaren Grenze des Zielobjektes überein, sondern liegt üblicherweise davor oder dahinter bzw. darüber oder darunter. Für die genaue Festlegung der Position und Umrisse des Zielobjektes wird zweckmäßig längs der Zeile/Spalte 15 Bildpunkte vor und nach dem gefundenen Übergang in einem Abstand von z. B. 3 Bildpunkten eine Klassifikation der vorgefundenen Farbe (HSV-Wert) nach zulässigen, vordefinierten Zielfarben und Hintergrundfarben einer festen Farbpalette vorgenommen. Dies geschieht dadurch, dass jeweils die normierte Summe der Abstandsquadrate der HSV-Werte von den einzelnen Farben der Farbpalette zu der untersuchten Farbe berechnet werden, und die untersuchte Farbe der Zielobjekt-Palettenfarbe mit dem kleinsten Abstandsquadrat zugeordnet und damit klassifiziert wird, und die Position des untersuchten positiv-klassifizierten Bildpunktes als neue Position des betrachteten Hintergrund-Ziel-Überganges behandelt wird. Damit wird erreicht, dass in den meisten Fällen die Zielobjektmarkierung innerhalb des Umrisses des Objektes zu liegen kommt und einer zulässigen Zielobjektreferenzfarbe zugeordnet wird, und eine tatsächliche Position innerhalb des Objektes für weitere Untersuchungen zur Verfügung steht.The Location of the transition determined by the classifier is correct due to the statistical nature of the process, which only averages and standard deviations considered, not exactly coincident with the visually perceptible border of the target object, but usually lies before or behind or above or below. For the exact definition of the position and outlines of the target object will be useful along the Row / Column 15 pixels before and after the transition found at a distance of z. B. 3 pixels a classification of the found Color (HSV value) according to permissible, predefined Target colors and background colors of a fixed color palette made. This happens because each of the normalized sum of the square squares the HSV values from the individual colors of the color palette to the examined Color calculated, and the inspected color of the target palette color assigned with the smallest square of the distance and thus classified and the position of the examined positively-classified pixel as a new position of the considered background-target transition is treated. This ensures that in most cases the Target object mark to lie within the outline of the object comes and a permissible one Target reference color is assigned, and an actual Position within the object for further investigation disposal stands.
Variante 2Variant 2
In einer zweiten Ausgestaltung des Farbklassifikators (2. Farbklassifikator) werden die Zielobjekt- und Hintergrundreferenzfarbtabellen speziell für die gerade betrachtete Zeile/Spalte jeweils aus einem Referenzumrissbild eines spezifischen gesuchten Zielobjekttyps (z. B. PKW, LKW, Tragtier, Personengruppe) in einer spezifischen gesuchten Referenzfarbgebung bzw. Referenztextur angelegt.In a second embodiment of the color classifier (2nd color classifier) The target and background reference color tables become special for the straight considered row / column respectively from a reference outline image of a specific searched target object type (eg car, truck, carrier, Group of people) in a specific reference coloration sought or reference texture created.
In den weiteren Verfahrensschritten arbeitet der 2. Farbklassifikator wie der 1. Farbklassifikator um mögliche Zielobjekte in dem zu untersuchenden Bild zu finden und zu lokalisieren. Abweichend vom 1. Farbklassifikator wird beim 2. Farbklassifikator in einem Durchgang nach Hintergrund-zu-Ziel-Übergängen, Ziel-zu-Ziel-Übergängen, und Ziel-zu-Hintergrund-Übergängen gleichzeitig gesucht und jeweils die Position des ersten angetroffenen möglichen Zieles in Zeilen-/Spaltenrichtung festgehalten, wobei die gefundene Positionsangabe aufgrund der statistischen Natur des Klassifikationsvorganges üblicherweise neben der genauen Mitte des tatsächlichen Zielobjektes liegt.In the further process steps, the second Farbklassifikator works like the 1st color classifier for possible targets in the too find and locate the examining image. Deviating from the 1. Color classifier becomes the second color classifier in one go for background-to-destination transitions, destination-to-destination transitions, and destination-to-background transitions simultaneously searched and, respectively, the position of the first possible one encountered Target in line / column direction held, the found Position indication due to the statistical nature of the classification process usually next to the exact middle of the actual Target object is located.
Eine möglichst genaue Messung der Lage der Mitte des Zielobjektes längs der Zeile wird nun dadurch erreicht, dass von der Ausgangsposition jeweils eine Klassifikatorfensterbreite vor und nach dieser Position der Ausschnitt der Messzeile/-spalte, der innerhalb des Klassifikatorfensters in dem Referenzumrissbild des gesuchten Zielobjekttyps in der gesuchten Zielobjektfarbe liegt, ausgewählt wird und die Abstandssumme über alle HSV-Farbwerte (Farbton, Farbsättigung, Helligkeit) und Standardabweichungen (von Farbton, Farbsättigung, Helligkeit) aufsummiert wird. Anschließend werden die Gesamtabstandssummen für alle getesteten Positionen verglichen und die Position mit der kleinsten Abstandssumme als wahrscheinlichste Zielposition gewertet. Da hierbei eine vollständige Korrelation des Referenzobjektstreifens auf den gefundenen Zielobjektstreifen stattfindet, ist der Zielsuchprozess des 2. Farbklassifikators viel selektiver und genauer als der 1. Farbklassifikator. Der 2. Farbklassifikator erfordert aber auch einen höheren Rechenaufwand.A preferably accurate measurement of the position of the center of the target along the Line is now achieved by starting from the starting position respectively a classifier window width before and after this position of the Section of measurement line / column within the classifier window in the reference outline image of the searched target object type in the searched Target color is selected is and the distance sum over all HSV color values (hue, color saturation, brightness) and standard deviations (of hue, color saturation, Brightness) is added up. Then the total distance totals become for all compared to the tested positions and the position with the smallest Distance total scored as the most likely target position. Hereby a complete Correlation of the reference object strip to the found target strip takes place, the target search process of the 2nd color classifier is much more selective and accurate than the 1st color classifier. The 2nd color classifier but also requires a higher one Computational effort.
Entdeckung von getarnten ZielobjektenDiscovery of camouflaged targets
Variante 1version 1
Zur
Erkennung von getarnten Zielobjekten wird der 1. Farbklassifikator
modifiziert, im weiteren auch als 1. Tarnfarbenklassifikator bezeichnet.
Dieser Tarnfarbenklassifikator arbeitet mit zwei hintereinander
angeordneten zweidimensionalen Fenstern
Unter
einer Fleckengröße versteht
man üblicherweise
die Größe einer
unregelmäßig geformten Fläche aus
der ein Tarnfarbenmuster besteht. Tarnfarbenmuster setzen sich im
allgemeinen aus unregelmäßig geformten
Flächen
zusammen, die in der Fläche
auf die Größe der Vegetationselemente,
vor denen als Hintergrund das zu tarnende Objekt nicht mehr unterscheidbar
sein soll, und in ihrer Farbgebung auf die Farbgebung des Hintergrunds
abgestimmt sind. Somit umfasst das Abtastfenster
Für jeden
einzelnen Bildpunkt
Auf
dem nachfolgenden Abtastfenster
Für jeden
einzelnen Bildpunkt
Diese Untersuchung wird dann längs des Suchpfades für alle zu suchenden Zielobjektreferenzmuster ausgeführt und damit nach diesen Mustern gesucht.These Examination then becomes longitudinal of the search path for all target object reference patterns to be searched are executed and thus looking for these patterns.
Die absolute Lage des Zielobjektes kann damit nicht genauer als die halbe Fenstergröße bestimmt werden, die relative Lage z. B. bei zwei Folgebildern, die in kurzem Abstand aufgenommen wurden, ist aber mit einigen Bildpunkten genau genug für eine Stereohöhe über Hintergrund Vermessung des gefundenen Zieles mit einer Genauigkeit von einigen Bildpunktbreiten.The absolute location of the target object can not be more accurate than that half window size determined be, the relative position z. B. in two consecutive pictures, in short Distance were recorded, but is accurate with some pixels enough for one Stereo height over background Measuring the found target with an accuracy of a few pixel widths.
Variante 2Variant 2
Zur Erkennung von spezifischen gesuchten Zielobjekttypen (z. B. PKW, LKW, Tragtier, Personengruppe, frischer Erdhügel, Hütte) wird der 2. Farbklassifikator modifiziert, im weiteren auch als 2. Tarnfarbenklassifikator bezeichnet. Hierzu wird ein Klassifikator eingesetzt, der mit zwei hintereinander angeordneten längs der Zeile/Spalte gezogenen, zweidimensionalen Fenstern arbeitet, dessen Abmessungen längs und quer zur Zeile/Spalte gleich der Klassifikatorfensterbreite des 2. Farbklassifikators sind. Auf dem führenden Fenster (Klassifikatorfenster) liegt ein Referenzmuster des gesuchten Tarnfarbenmusters, das wie beim 2. Farbklassifikator beschrieben vorab in einer Referenztabelle angelegt wird, um das Zielobjekt zu charakterisieren, und das groß genug ist, um alle wesentlichen Elemente des Musters und die detaillierten Umrisse des von dem Fenster erfassten Objektteiles zu enthalten. Dies ist bei der drei bis vierfachen mittleren Fleckengröße in beiden Richtungen gegeben, das heißt das Objekt kann mit drei aneinanderliegenden Fenstern in seinen charakterisierenden Umrissen erfasst werden.to Detection of specific searched target object types (eg cars, Truck, pack animal, group of people, fresh mounds, hut) becomes the 2nd color classifier modified, also referred to as the 2nd Tarnfarbenklassifikator. For this purpose, a classifier is used, with two consecutive arranged longitudinally the row / column drawn, two-dimensional windows works, its dimensions along and across the row / column equal to the classifier window width of the 2nd color classifier. Located on the leading window (classifier window) a reference pattern of the sought camouflage pattern, the same as the 2. Color classifier described in advance in a reference table is created to characterize the target object, and that's big enough is to all the essential elements of the pattern and the detailed Contain outlines of the object part captured by the window. This is at three to four times the mean spot size in both Given directions, that is The object can be with three adjacent windows in its characterizing outlines are detected.
Anschließend wird
für jeden
einzelnen Bildpunkt des gesuchten Referenzmusters gegen jeden Bildpunkt
des getesteten Zielobjektfensters jeweils die Abstandsquadratsumme
der HSV-Werte berechnet und diesem Referenzpunkt der kleinste Wert
als Abstand zugeordnet. Die Summe aller Abstände aller Referenzpunkte ist
dann der Gesamtabstand dieser Objektfensterlage von dem Zielobjektmuster.
Ausgehend von der mit dem 2. Farbklassifikator gemessenen Objektlage
wird nun für
das Zielobjektfenster in kleineren Unterfeldern
Die
Klassifizierung des Zielobjektes kann in Variante 1 und Variante
2 noch weiter verfeinert werden. Hierzu wird das Zielobjektabtastfenster
Die
Drehlage mit der kleinsten Abstandssumme wird als wahrscheinlichste
wahre Drehlage des gefundenen Zielobjektes gewertet und aufgezeichnet.
Dieser Vorgang wird für
jeden der zu suchenden Objektformtyp für jede der 4 möglichen
Orientierungen wiederholt, d. h. bei 4 Objektformtypen z. B. PKW,
LKW, Tragtier, Personengruppe bei 4 Orientierungen muss der Vorgang
Der Objektformtyp mit dem geringsten Gesamtabstand wird als wahrscheinlichster Objektformtyp gewertet und aufgezeichnet, zusammen mit dem Objektformtyp (z. B. PKW, LKW, Tragtier, Personengruppe) des verwendeten Referenzobjektes, dem Farbmustertyp (einfarbig, Tarnfarbenmuster), und der mittleren Objektfarbe in ihren sechs kennzeichnenden Werten (Mittelwerte und Standardabweichungen), und der Orientierung im Raum, repräsentiert durch die gemessene Drehlage.Of the Object shape type with the smallest total distance is considered the most probable Object shape type evaluated and recorded, along with the object shape type (eg car, truck, carrier, group of persons) of the reference object used, the color pattern type (monochrome, camouflage pattern), and the middle Object color in its six characteristic values (averages and Standard deviations), and orientation in space through the measured rotational position.
Bestimmung von SignaturenDetermination of signatures
Die in den beschriebenen Varianten der Farbklassifikatoren und Tarnfarbenklassifikatoren beschriebenen Verfahren können einerseits flächendeckend zur Suche nach Objekten mit bekannten Referenzmustern eingesetzt werden.The in the described variants of color classifiers and camouflage color classifiers described method can on the one hand, nationwide Used to search for objects with known reference patterns become.
Andererseits können die Verfahren auch auf bereits erkannte Zielobjekte angewendet werden, um diese nach bekannten Zielobjektreferenzmustern zu klassifizieren. Mit dieser gefundenen Klassifizierung kann das tatsächlich vorgefundene Zielobjektmuster um die gefundene Zielposition aufgezeichnet werden, um eine kennzeichnende Signatur dieses spezifischen Zielobjektes zu erhalten. Mit Hilfe dieser Signatur kann das Zielobjekt in einer späteren Luftbildaufnahme desselben Gebietes bei einer inzwischen erfolgten Ortsveränderung gegenüber der ersten Aufnahme wiedergefunden werden, und das betreffende Objekt als bewegtes Objekt eingestuft werden, sowie Bewegungsrichtung und Geschwindigkeit des Zielobjektes gegenüber dem Hintergrund vermessen werden. Dazu werden alle Zielobjekte, die in der ersten Stereoaufnahme gefunden und mit ihrer Signatur aufgezeichnet wurden, in der (um maximal eine halbe Bildbreite verschobenen) zweiten Stereoaufnahme an derselben Stelle per Korrelation gesucht und festgestellt, welche Objekte wiedergefunden wurden, also stationär sind, und welche Objekte nicht mehr am alten Ort sind, sich also bewegt haben müssen. Diese mutmaßlich bewegten Objekte werden in der zweiten Stereoaufnahme in einem Umkreis, den das gesuchte Objekt zwischen den beiden Aufnahmezeiten erreicht haben könnte (unter Zuhilfenahme von realistischen Bewegungsgleichungen), an Hand der Zielobjektliste für die zweite Stereoaufnahme gesucht (durch Signaturvergleich mit Übereinstimmung). Wird das Objekt dabei gefunden, so kann aus der Ortsdifferenz und dem Zeitintervall die Geschwindigkeit und die Bewegungsrichtung des Objektes berechnet werden. Diese Ergebnisse ermöglichen es, die Zielobjektlisten aller Aufnahmen in einem Gesamtobjektdatensatz zusammenzufassen, und aus diesem durch Spurbildung der Bewegung der bewegten Objekte einen Gesamt-Trackdatensatz des beobachteten Gebietes anlegen, der durch wiederholten Überflug über das Gebiet auch zeitlich beliebig lange fortgeführt und aufrechterhalten werden kann. Wenn der Trackdatensatz über längere Zeit aufrechterhalten werden kann entsteht so ein vollständiges Verzeichnis der Objekte mit ihrer detaillierten Signatur, sowie ein Lagebild und ein Bewegungsprofil bezüglich der gefundenen Zielobjekte in dem beobachteten Gebiet.on the other hand can the methods are also applied to already recognized target objects, to classify them according to known target object reference patterns. With this found classification, the actually found Target object patterns are recorded around the found target position, a distinctive signature of this specific target to obtain. With the help of this signature, the target object in a later Aerial photograph of the same area in a meanwhile done locomotion across from the first shot, and the object in question be classified as a moving object, as well as direction of movement and Speed of the target object to be measured against the background. These are all the target objects found in the first stereo recording and with their signature were recorded in the (by a maximum half image width shifted) second stereo recording on the same Searched by correlation and determined which objects were recovered, which are stationary, and which objects are no longer in the old place, so have to have moved. These presumed moving objects are in the second stereo recording in a radius, reached the object sought between the two recording times could have (using realistic equations of motion) Hand of the target object list for searched the second stereo recording (by signature comparison with agreement). If the object is found, then from the location difference and the time interval the speed and the direction of movement of the object. These results allow it, the target object lists of all recordings in an overall object record and from this by tracking the movement the moving objects a total track record of the observed Area by repeated overflight over the area also temporally continued for any length of time and can be sustained. If the track record over a long time can be maintained so creates a complete directory the objects with their detailed signature, as well as a situation picture and a motion profile with respect to the found target objects in the observed area.
Automatische ZielerkennungAutomatic target recognition
Die gefundenen tatsächlichen Zielsignaturen und die gefundene Zielklassifizierung können in einem Nachbearbeitungsschritt am Boden zu der an Bord-Auswertung in der Luft dazu verwendet werden, die Referenzzielobjektmuster dahingehend zu verbessern, dass z. B. mit Hilfe eines Gradientensuchverfahrens das Referenzzielobjektmuster solange verändert wird, bis die Gesamtabstandssumme des Referenzzielobjektmusters zu allen positiv klassifizierten gefundenen tatsächlichen Zielobjektmustern einen Minimalwert erreicht. Der Maximalwert der dabei beobachteten, noch positiv klassifizierten Abstände zum neuen Referenzmuster wird dabei als Abstandsschranke festgehalten, die für eine erfolgreiche Klassifizierung nicht überschritten werden darf. Dieses errechnete neue Referenzmuster wird dann im folgenden als generalisiertes Zielobjektreferenzmuster mit der ermittelten Abstandsschranke für diese Klasse verwendet. Damit können die Zielobjektreferenzmuster durch Erfahrung aus der Auswertung der tatsächlich gefundenen Zielobjekte verbessert werden und machen das System in diesem Sinne lernfähig.The Found actual Target signatures and the found target classification can be found in a post-processing step on the ground to the on-board evaluation be used in the air, the reference target object pattern to improve that z. B. by means of a Gradientensuchverfahrens the reference target object pattern is changed until the total distance sum of the reference target object pattern to all positively classified ones found actual Target object patterns reached a minimum value. The maximum value of observed while still positively classified distances to new reference pattern is recorded as a distance barrier, the for a successful classification must not be exceeded. This calculated new reference pattern is then generalized as follows Target object reference pattern with the determined distance barrier for this Class used. With that you can the target object reference patterns through experience from the evaluation of the indeed found target objects are improved and make the system in capable of learning in this sense.
Eine weitere Anwendung ist, die vorhandenen Referenzzielobjektmuster durch Einfügen neuer Muster zu ergänzen, wenn erkannt wird, dass sich die gefundenen Zielobjekte in zwei Gruppen mit kleineren zulässigen Abstandsschranken aufspalten lassen, die dann als Klassifikatoreinstellung selektiver klassifizieren als die ursprünglichen.A Another application is the existing reference target object pattern by inserting new pattern to complete, when it is detected that the target objects found in two Groups with smaller permissible Split gap barriers, which then as Klassifikatoreinstellung Classify more selectively than the original ones.
Die gefundenen Zielobjekte, die immer noch einen Anteil an Falschzielen enthalten, können im weiteren mit einem Verfahren zur automatischen Zielerkennung (ATR) über die Objektform nach gelernten Referenzformen untersucht werden. Dieses ATR-Verfahren können üblicherweise nur einfarbige Helligkeitsbilder (Grauwertmuster) verwerten.The found targets, which still have a share of false targets can contain in the further with a method for automatic target recognition (ATR) over the object shape is examined according to learned reference forms. This ATR procedure can usually only use monochrome brightness images (gray value pattern).
In einer Weiterbildung der Erfindung wird das ATR-Verfahren modifiziert, um auch mehrfarbige, z. B. drei oder vier Farbachsen umfassende multispektrale Farbräume, und daraus zusammengesetzte komplexe Farbmuster zu erkennen.In In a further development of the invention, the ATR method is modified, to multicolored, z. B. three or four color axes comprehensive multispectral color spaces, and to recognize complex color patterns composed of these.
Dies geschieht zweckmäßig dadurch, dass statt dem Helligkeitswert die normierte Abstandssumme über alle Spektralfarben des Farbraumes von einer passend gewählten Zielobjektreferenzfarbe invertiert (d. h. der auf eins normierte Wert von eins subtrahiert wird) als Helligkeitswert eingesetzt wird. Dadurch kann das ATR-Verfahren komplexe Farbmuster erkennen und trennen, die sich alleine in ihren Helligkeitswerten überhaupt nicht unterscheiden und damit nach den Helligkeitswerten alleine nicht trennbar sind.This is done appropriately, that instead of the brightness value the normalized distance sum over all Spectral colors of the color space from a suitably selected target reference color inverted (that is, subtracting the one normalized value of one is) is used as the brightness value. This makes the ATR process complex Recognize and separate color patterns that are unique in their brightness values do not differ and thus according to the brightness values alone are not separable.
Höhenbestimmungheight determination
Liegen von demselben Zielgebiet zwei Aufnahmen mit einem verwertbaren Stereowinkel (Winkel der Bildachsen der beiden Bilder) vor, so kann in einer Weiterbildung der Erfindung von den gefundenen stationären Zielobjekten eine Höhenmessung vorgenommen werden, wenn einer der berechneten Zieldurchmesser in Richtung der erwarteten Stereoverschiebung des untersuchten Objektes liegt. Dazu wird ein Bereich längs der Zeile/Spalte in dem ersten Bild, der das Objekt vollständig überdeckt, Bildpunkt für Bildpunkt über das das zweite Bild geschoben, und für jede Position die Summe der Abstandsquadrate in HSV für das Fenster im 1. Bild und im 2. Bild berechnet. Die Position mit der geringsten Abstandssumme ist dann die wahrscheinlichste Position des Objektes in dem 2. Bild. Unter Berücksichtigung des Stereowinkels kann daraus die gemessene Höhe des Objektes über dem Hintergrund berechnet werden.Lie from the same target area two recordings with a usable stereo angle (Angle of the image axes of the two images) before, so can in one Development of the invention of the found stationary targets made a height measurement when one of the calculated target diameters in the direction of expected stereo shift of the examined object is located. This will be an area along the row / column in the first image that completely covers the object, Pixel for Pixel above that pushed the second picture, and for each position the sum of Distance squares in HSV for the window in the first picture and in the second picture is calculated. The position with the least distance is then the most likely position of the object in the second picture. Taking into account the stereo angle it can be the measured height of the object over be calculated against the background.
Dies kann bei Verwendung einer Linescanner-Kamera oder einer nicht-stabilisierten Full-frame-Kamera bereits mit den nicht rektifizierten Rohdaten ausgeführt werden. Damit wird zweckmäßig erreicht, dass eine Stereohöhe über Hintergrund Vermessung der interessierenden Ziel-Objekte bereits im Flug direkt nach der Aufnahme mit Bordmitteln erzielt werden kann, und nicht erst nach dem Flug am Boden nach der zeitaufwendigen Rektifizierungsrechnung. Dadurch kann direkt nach der Aufnahme das Bildmaterial nach Zielen abgesucht werden, die eine gemessene Höhe haben, und man kann damit Falschziele, die keine ausreichende Höhe haben, aus der weiteren Bearbeitung ausschließen. Dadurch kann die Stereohöhenvermessung von Zielobjekten auch in laufenden Überwachungsflügen zur sofortigen Bildauswertung eingesetzt werden, was die Wirksamkeit der Überwachung wesentlich verbessern kann, ohne den Aufwand übermäßig zu steigern, z. B. können so getarnte Ziele leichter erkannt werden oder flache Abbildungen von Objekten von echten höhebehafteten Objekten unterschieden werden.This can when using a line scanner camera or a non-stabilized Full-frame camera already with the unrectified raw data accomplished become. This is achieved appropriately, that a stereo height over background Surveying the target objects of interest directly in flight can be achieved after admission with on-board means, and not only after the flight on the ground after the time-consuming rectification calculation. This allows the footage to be targeted immediately after shooting be scanned, which have a measured height, and you can thus false targets, not enough height exclude from further processing. This allows the stereo height measurement of target objects also in ongoing surveillance flights to Immediate image evaluation will be used, reflecting the effectiveness the surveillance can significantly improve without overly increasing the effort, z. B. can do so camouflaged targets are more easily recognized or flat images of Objects of real high-heeled Objects are distinguished.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006060612A DE102006060612B4 (en) | 2006-12-21 | 2006-12-21 | Method for monitoring target objects and multispectral camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006060612A DE102006060612B4 (en) | 2006-12-21 | 2006-12-21 | Method for monitoring target objects and multispectral camera |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102006060612A1 DE102006060612A1 (en) | 2008-06-26 |
DE102006060612B4 true DE102006060612B4 (en) | 2008-08-28 |
Family
ID=39431544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006060612A Active DE102006060612B4 (en) | 2006-12-21 | 2006-12-21 | Method for monitoring target objects and multispectral camera |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102006060612B4 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008038527A1 (en) | 2008-08-20 | 2010-02-25 | Eads Deutschland Gmbh | Method for evaluating object elements in images of multispectral camera or synthetic aperture radar device, involves forming target object hypothesis |
DE102012002321B4 (en) | 2012-02-06 | 2022-04-28 | Airbus Defence and Space GmbH | Method for recognizing a given pattern in an image data set |
DE102017203236A1 (en) | 2017-02-28 | 2018-08-30 | Conti Temic Microelectronic Gmbh | Device and method for detecting a traffic light phase for a motor vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19955919C1 (en) * | 1999-11-20 | 2001-05-31 | Daimler Chrysler Ag | Object recognition method for pixel images provides reduced image from input image which is divided by filtering into at least 2 filtered images each used for providing set of classification images |
DE102005009626A1 (en) * | 2005-02-24 | 2006-08-31 | Universität Tübingen | Camera for tracking objects, has processing unit with region of interest-sampling unit, and tracking unit with particle filter, which are provided to determine tracking data of objects to be tracked on basis of image data |
-
2006
- 2006-12-21 DE DE102006060612A patent/DE102006060612B4/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19955919C1 (en) * | 1999-11-20 | 2001-05-31 | Daimler Chrysler Ag | Object recognition method for pixel images provides reduced image from input image which is divided by filtering into at least 2 filtered images each used for providing set of classification images |
DE102005009626A1 (en) * | 2005-02-24 | 2006-08-31 | Universität Tübingen | Camera for tracking objects, has processing unit with region of interest-sampling unit, and tracking unit with particle filter, which are provided to determine tracking data of objects to be tracked on basis of image data |
Non-Patent Citations (5)
Title |
---|
BALA Jerzy, et al.: "Applications of Distributed Mining Techniques For Knowledge Discovery in Dis- persed Sensory Data", 7th Joint Conference on In- formation Sciences-JCIS 2003, Cary, NC, USA, Sep 26-30, 2003, Data Mining Session. Online ab- rufbar unter http://www.dsri.com/DatamatLMMFCdist- 071503.pdf |
BALA Jerzy, et al.: "Applications of Distributed Mining Techniques For Knowledge Discovery in Dispersed Sensory Data", 7th Joint Conference on Information Sciences-JCIS 2003, Cary, NC, USA, Sep 26-30, 2003, Data Mining Session. Online abrufbar unter http://www.dsri.com/DatamatLMMFCdist071503.pdf * |
DU Peijun, et al.: "Study on content-based remote sensing image retrieval", IEEE, 25-29 July 2005, Proceedings of the Geoscience and Remote Sensing Symposium 2005. (IGARSS '05), Volume: 2, page(s): 707-710, ISBN: 0-7803-9050-4 * |
XU Richard Y.D., et al.: "Robust real-time trac- king of non-rigid objects", ACM, 2004, Procee- dings of the Pan-Sydney area workshop on Visual information processing, Conference Proceeding Series, Vol. 100, Pages: 95-98, ISBN~ISSN:1445- 1336, 1-920682-18-X |
XU Richard Y.D., et al.: "Robust real-time tracking of non-rigid objects", ACM, 2004, Proceedings of the Pan-Sydney area workshop on Visual information processing, Conference Proceeding Series, Vol. 100, Pages: 95-98, ISBN~ISSN:14451336, 1-920682-18-X * |
Also Published As
Publication number | Publication date |
---|---|
DE102006060612A1 (en) | 2008-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013205950B4 (en) | Roadside detection method | |
DE102011106050B4 (en) | Shadow removal in an image captured by a vehicle-based camera for detection of a clear path | |
AT506928B1 (en) | METHOD OF VIDEO ANALYSIS | |
DE102011106052B4 (en) | Shadow removal in an image captured by a vehicle based camera using a nonlinear illumination invariant core | |
DE112013001858T5 (en) | Multiple-hint object recognition and analysis | |
EP0815539B1 (en) | Method of detecting moving objects in chronologically successive images | |
DE102004018813A1 (en) | Method for detecting and / or tracking objects | |
DE202012013403U1 (en) | Capture and process adaptive images with image analysis feedback | |
EP2174260A2 (en) | Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program | |
DE102013205854B4 (en) | Method for detecting a free path using temporary coherence | |
DE102013212495A1 (en) | Method and device for inspecting a contoured surface, in particular the underbody of a motor vehicle | |
EP2387017B1 (en) | Method and device for generating traffic data from digital aerial image sequences | |
DE102012002321B4 (en) | Method for recognizing a given pattern in an image data set | |
DE102017103540A1 (en) | Determine an angular position of a trailer without a target mark | |
DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
DE102012220619A1 (en) | Color detection device for a vehicle | |
DE102015211874A1 (en) | Object detection device | |
DE102006060612B4 (en) | Method for monitoring target objects and multispectral camera | |
DE102019204602B4 (en) | Method and device for masking objects contained in an image | |
EP2907105A2 (en) | Image processing method and method for tracking missiles | |
DE102019209473A1 (en) | Method and device for the rapid detection of repetitive structures in the image of a street scene | |
DE102022202548B3 (en) | Method for training a computer program product | |
DE102019220616B4 (en) | PROCEDURE FOR SIMULTANEOUS LOCATION AND IMAGE | |
DE10001282C2 (en) | Method for autonomous detection of helicopters | |
DE4211171C2 (en) | Process for recognizing patterns of interest |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R081 | Change of applicant/patentee |
Owner name: AIRBUS DEFENCE AND SPACE GMBH, DE Free format text: FORMER OWNER: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE Effective date: 20140814 |