DE102007013664A1 - Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient - Google Patents

Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient Download PDF

Info

Publication number
DE102007013664A1
DE102007013664A1 DE102007013664A DE102007013664A DE102007013664A1 DE 102007013664 A1 DE102007013664 A1 DE 102007013664A1 DE 102007013664 A DE102007013664 A DE 102007013664A DE 102007013664 A DE102007013664 A DE 102007013664A DE 102007013664 A1 DE102007013664 A1 DE 102007013664A1
Authority
DE
Germany
Prior art keywords
hypotheses
sensor signal
stream
hypothesis
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007013664A
Other languages
German (de)
Inventor
Otto Dr.-Ing. Löhlein
Axel Roth
Werner Dr. Rer. Nat. Ritter
Roland Dipl.-Inf. Schweiger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE102007013664A priority Critical patent/DE102007013664A1/en
Publication of DE102007013664A1 publication Critical patent/DE102007013664A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

The device has a positioning device (16) comprising a rolling nut surrounding a shaft, where the nut converts a rotation of the shaft into a linear movement of a carriage (14). The rolling nut is designed as a roller ring transmission (18) with a set of roller-supported roller rings (20, 22, 24) with a variable upward gradient. The positioning device comprises an adjusting organ (60) for adjusting the inclination of roller. The positioning device comprises a motor for driving the adjusting organ.

Description

Die Erfindung betrifft ein Verfahren zur multisensoriellen Objekterkennung.The The invention relates to a method for multisensor object recognition.

Die rechnerbasierte Auswertung von Sensorsignalen zur Objekterkennung und Objektverfolgung ist bereits aus dem Stand der Technik bekannt. Beispielsweise sind Fahrerassistenzsysteme für Straßenfahrzeuge erhältlich, welche vorausfahrende Fahrzeuge mittels Radar erkennen und nach verfolgen, um z.B. die Geschwindigkeit und den Abstand des eigenen Fahrzeugs zum vorausfahrenden Verkehr automatisch zu regeln. Für den Einsatz im Fahrzeugumfeld sind darüber hinaus unterschiedlichste Arten von Sensoren, wie z.B. Radar, Laser- und Kamerasensoren bereits bekannt. Diese Sensoren sind in ihren Eigenschaften sehr unterschiedlich und besitzen unterschiedliche Vor- und Nachteile. Beispielsweise unterscheiden sich derartige Sensoren in ihrem Auflösungsvermögen oder in der spektralen Empfindlichkeit. Besonders vorteilhaft wäre es daher, falls mehrere unterschiedliche Sensoren gleichzeitig in einem Fahrerassistenzsystem zum Einsatz kommen würden. Ein multisensorieller Einsatz ist derzeit jedoch kaum möglich, da sich mittels unterschiedlicher Arten von Sensoren erfasste Größen nur mit erheblichem Aufwand bei der Signalauswertung direkt vergleichen oder in geeigneter Weise kombinieren lassen.The Computer-based evaluation of sensor signals for object recognition and object tracking is already known in the art. For example, driver assistance systems for road vehicles are available, which vehicles ahead detect by means of radar and after track, e.g. the speed and distance of one's own Automatically control the vehicle to the preceding traffic. For use in the vehicle environment are above In addition, various types of sensors, such as. Radar, laser and camera sensors already known. These sensors are in theirs Properties very different and own different Advantages and disadvantages. For example, such differ Sensors in their resolution or in the spectral sensitivity. It would therefore be particularly advantageous if several different sensors simultaneously in a driver assistance system would be used. A multi-sensorial use is currently hardly possible because Sizes detected by different types of sensors only compare with considerable effort in the signal evaluation directly or combine as appropriate.

Bei den aus dem Stand der Technik bekannten Systemen werden daher die einzelnen Sensorströme zunächst aneinander angepasst, bevor diese miteinander fusioniert werden. Beispielsweise werden die Bilder zweier Kameras mit unterschiedlichem Auflösungsvermögen zunächst in aufwendiger Weise pixelgenau aufeinander abgebildet und erst dann miteinander fusioniert.at the known from the prior art systems are therefore the individual sensor currents first together adjusted before they are fused together. For example The images of two cameras with different resolution are first in consuming manner pixel-accurately mapped and only then fused together.

Der Erfindung liegt daher die Aufgabe zu Grunde ein Verfahren zur multisensoriellen Objekterkennung zu schaffen, womit Objekte auf eine einfache und zuverlässige Weise erkannt und verfolgt werden können.Of the The invention is therefore based on the object of a method for multi-sensorial To create object recognition, bringing objects to a simple and reliable Can be detected and tracked.

Die Aufgabe wird gemäß der Erfindung durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteile Ausgestaltungen und Weiterbildungen werden in den Unteransprüchen aufgezeigt.The Task is according to the invention solved by a method having the features of claim 1. advantages Embodiments and developments are shown in the subclaims.

Gemäß der Erfindung wird ein Verfahren zur multisensoriellen Objekterkennung bereitgestellt, wobei Sensorinformationen aus wenigstens zwei unterschiedlichen Sensorsignalströmen mit unterschiedlichen Sensorsignaleigenschaften zur gemeinsamen Auswertung herangezogen werden. Die Sensorsignalströme werden dabei zur Auswertung nicht aneinander angepasst und/oder aufeinander abgebildet. Anhand der wenigstens zwei Sensorsignalströme werden zunächst Objekthypothesen generiert und auf der Grundlage dieser Objekthypothesen werden sodann Merkmale für wenigstens einen Klassifikator generiert. Die Objekthypothesen werden anschließend mittels dem wenigstens einen Klassifikator bewertet und einer oder mehreren Klassen zugeordnet. Dabei sind wenigstens zwei Klassen definiert, wobei einer der beiden Klassen Objekte zuzuordnen sind. Mit dem erfindungsgemäßen Verfahren wird somit eine einfache und zuverlässige Objekterkennung erst möglich. Eine aufwendige Anpassung unterschiedlicher Sensorsignalströme aneinander bzw. eine Abbildung aufeinander entfällt hierbei in besonders gewinnbringender Weise komplett. Im Rahmen des erfindungsgemäßen Verfahrens werden die Sensorinformationen aus den wenigstens zwei Sensorsignalströmen vielmehr direkt miteinander kombiniert bzw. miteinander fusioniert. Dadurch wird die Auswertung deutlich vereinfacht und kürzere Rechenzeiten sind möglich. Dadurch dass keine zusätzlichen Schritte für die Anpassung der einzelnen Sensorsignalströme benötigt werden, wird die Anzahl möglicher Fehlerquellen bei der Auswertung minimiert.According to the invention a method for multi-sensor object recognition is provided, wherein sensor information from at least two different Sensor signal streams with different sensor signal characteristics to the common Evaluation are used. The sensor signal currents are not adapted to each other for evaluation and / or each other displayed. Based on the at least two sensor signal currents first Object hypotheses are generated and based on these object hypotheses then become features for at least one classifier generated. The object hypotheses are subsequently evaluated by the at least one classifier and one or assigned to several classes. There are at least two classes defined, wherein one of the two classes are assigned objects. With the method according to the invention Thus, a simple and reliable object recognition only possible. A complex adaptation of different sensor signal currents to each other or an illustration of each other is omitted here in a particularly profitable Way complete. In the context of the method according to the invention, the sensor information from the at least two sensor signal streams directly with each other combined or fused together. This will make the evaluation much easier and shorter Calculation times are possible. Because there is no additional Steps for the adaptation of the individual sensor signal currents are needed, the number potential Sources of error in the evaluation minimized.

Die Objekthypothesen können entweder eindeutig einer Klasse zugeordnet werden, oder sie werden mehreren Klassen zugeordnet, wobei die jeweilige Zuordnung mit einer Wahrscheinlichkeit belegt ist.The Object hypotheses can either be uniquely assigned to one class or they will be multiple Classes associated with each assignment with a probability is occupied.

In einer gewinnbringenden Weise werden die Objekthypothesen unabhängig voneinander einzeln in jedem Sensorsignalstrom generiert, wobei die Objekthypothesen unterschiedlicher Sensorsignalströme sodann über Zuordnungsvorschriften einander zuordenbar sind. Zunächst werden dabei in jedem Sensorsignalstrom mittels Suchfenstern in einem zuvor definierten 3D-Zustandsraum, welcher durch physikalische Größen Aufgespannt wird, die Objekthypothesen generiert. Aufgrund des definierten 3D-Zustandsraums sind die in den einzelnen Sensorsignalströmen generierten Objekthypothesen später einander zuordenbar. Beispielsweise werden die Objekthypothesen aus zwei unterschiedlichen Sensorsignalströmen später bei der sich anschließenden Klassifikation paarweise klassifiziert, wobei eine Objekthypothese aus einem Suchfensterpaar gebildet wird. Falls mehr als zwei Sensorsignalströme vorhanden sind, wird dem entsprechend aus jedem Sensorsignalstrom jeweils ein Suchfenster herangezogen und daraus eine Objekthypothese gebildet, welche sodann zur gemeinsamen Auswertung an den Klassifikator übergeben wird. Bei den physikalischen Größen zum Aufspannen des 3D-Zustandsraums kann es sich beispielsweise um eine oder mehrere Komponente(n) der Objektausdehnung, einen Geschwindigkeits- und/oder Beschleunigungsparameter, um eine Zeitangabe usw. handeln. Der Zustandsraum kann dabei auch höher dimensional ausgestaltet sein.In a profitable manner, the object hypotheses are independently generated individually in each sensor signal stream, wherein the object hypotheses of different sensor signal currents can then be assigned to each other via assignment rules. First, the object hypotheses are generated in each sensor signal stream by means of search windows in a previously defined 3D state space, which is defined by physical variables. Due to the defined 3D state space, the object hypotheses generated in the individual sensor signal streams can later be assigned to one another. For example, the object hypotheses from two different sensor signal streams are paired later in the subsequent classification, where an object hypothesis is formed from a search window pair. If more than two sensor signal currents are present, a search window is accordingly used from each sensor signal stream and an object hypothesis is formed from this, which is then transferred to the classifier for joint evaluation. The physical quantities for spanning the 3D state space can be, for example, one or more component (s) of the Object extent, a speed and / or acceleration parameter, a time, etc. act. The state space can also be made higher dimensional.

In einer weiteren gewinnbringenden Weise der Erfindung werden Objekthypothesen in einem Sensorsignalstrom (Primärstrom) generiert und die Objekthypothesen des Primärstroms sodann in andere Bildströme (Sekundärströme) projiziert, wobei eine Objekthypothese des Primärstroms eine oder mehrere Objekthypothesen im Sekundärstrom erzeugt. Bei der Verwendung eines Kamerasensors werden die Objekthypothesen im Primärstrom dabei beispielsweise anhand eines Suchfensters innerhalb der mittels des Kamerasensors aufgezeichneten Bildaufnahmen generiert. Die im Primärstrom generierten Objekthypothesen werden anschließend rechnerisch in einen oder mehrere andere Sensorströme projiziert. In einer weiteren vorteilhaften Weise basiert die Projektion von Objekthypothesen des Primärstroms in einen Sekundärstrom dabei auf den verwendeten Sensormodellen und/oder der Positionen von Suchfenstern innerhalb des Primärstroms bzw. auf der Epipolargeometrie der verwendeten Sensoren. Bei der Projektion können in diesem Zusammenhang auch Mehrdeutigkeiten entstehen. Eine Objekthypothese/Suchfenster des Primärstroms generiert, z.B. aufgrund unterschiedlicher Objektabstände der einzelnen Sensoren, mehrere Objekthypothesen/Suchfenster im Sekundärstrom. Die damit generierten Objekthypothesen werden sodann vorzugsweise paarweise dem Klassifikator übergeben. Wobei jeweils Paare aus der Objekthypothese des Primärstroms und jeweils einer Objekthypothese des Sekundärstroms gebildet werden und sodann dem Klassifikator übergeben werden. Es besteht aber auch die Möglichkeit, dass neben der Objekthypothese des Primärstroms auch alle in den Sekundärströmen generierten Objekthypothesen oder Teile davon dem Klassifikator übergeben werden.In Another beneficial mode of the invention will be object hypotheses in a sensor signal current (primary current) generated and the object hypotheses of the primary stream then projected into other image streams (secondary streams), where an object hypothesis of the primary stream is one or more object hypotheses in the secondary current generated. When using a camera sensor, the object hypotheses become in the primary stream thereby for example by means of a search window within the means generated by the camera sensor recorded images. The im primary current generated object hypotheses are then computationally in or several other sensor currents projected. In a further advantageous manner, the projection is based of object hypotheses of the primary stream into a secondary stream thereby on the used sensor models and / or the positions search windows within the primary stream or on the epipolar geometry the sensors used. In the projection can in this context Ambiguities also arise. An object hypothesis / search window of the primary current generated, e.g. due to different object distances of the individual sensors, several object hypotheses / search windows in the secondary current. The object hypotheses generated with it are then preferably pairwise passed to the classifier. Where pairs from the object hypothesis of the primary stream and in each case an object hypothesis of the secondary current are formed and then handed over to the classifier become. But there is also the possibility that in addition to the object hypothesis of the primary current also all generated in the secondary currents Object hypotheses or parts thereof passed to the classifier become.

Im Zusammenhang mit der Erfindung werden Objekthypothesen in gewinnbringender Weise durch deren Objekttyp, Objektposition, Objektausdehnung, Objektorientierung, Objektbewegungsparameter wie Bewegungsrichtung und Geschwindigkeit, Objektgefahrenpotential oder einer beliebigen Kombination daraus beschrieben werden. Es kann sich darüber hinaus auch um beliebige weitere Parameter handeln, welche die Objekteigenschaften beschreiben. Beispielsweise einem Objekt zugeordnete Geschwindigkeits- und/oder Beschleunigungswerte. Dies ist insbesondere dann von Vorteil, falls das erfindungsgemäße Verfahren neben der reinen Objekterkennung zusätzlich zur Objektnachverfolgung eingesetzt wird und die Auswertung ein Tracking mit umfasst.in the In connection with the invention, object hypotheses become more profitable Way by their object type, object position, object extent, object orientation, Object movement parameters such as direction of movement and speed, Object hazard potential or any combination thereof to be discribed. It can also be any act further parameters that describe the object properties. For example, associated with an object speed and / or Acceleration. This is particularly advantageous if the inventive method in addition to pure object recognition in addition to object tracking is used and the evaluation includes a tracking with.

In einer weiteren vorteilhaften Weise der Erfindung werden Objekthypothesen in einem physikalischen Suchraum zufällig gestreut oder in einem Raster erzeugt. Beispielsweise werden Suchfenster mit einer vorgegebenen Schrittweite innerhalb des Suchraums anhand eines Rasters variiert. Es besteht aber auch die Möglichkeit, dass Suchfenster nur innerhalb von vorbestimmten Bereichen des Zustandsraums an denen Objekte mit hoher Wahrscheinlichkeit auftreten eingesetzt werde und damit Objekthypothesen generiert werden. Außerdem können die Objekthypothesen in einem physikalischen Suchraum auch durch ein physikalisches Modell entstanden sein. Der Suchraum kann durch externe Vorgaben wie Öffnungswinkel, Entfernungsbereiche, statistische Kenngrößen, die lokal im Bild gewonnen werden, und/oder Messungen anderer Sensoren adaptiv eingeschränkt werden.In Another advantageous embodiment of the invention becomes object hypotheses randomly scattered in a physical search space or in one Raster generated. For example, search windows are given a predetermined Increment within the search space varies based on a grid. But there is also the possibility that search window only within predetermined areas of the state space where objects are likely to occur and thus object hypotheses are generated. In addition, the Object hypotheses in a physical search space also by a physical model emerged. The search space can be determined by external specifications like opening angle, Distance ranges, statistical characteristics that are obtained locally in the picture , and / or measurements of other sensors are adaptively restricted.

Im Zusammenhang mit der Erfindung basieren die unterschiedlichen Sensorsignaleigenschaften in den Sensorsignalströmen im Wesentlichen auf unterschiedlichen Positionen und/oder Orientierungen und/oder Sensorgrößen der verwendeten Sensoren. Neben Positions- und/oder Orientierungsabweichungen oder einzelnen Komponenten davon verursachen hauptsächlich Abweichungen bei den verwendeten Sensorgrößen unterschiedliche Sensorsignaleigenschaften in den einzelnen Sensorsignalströmen. Beispielsweise verursachen Kamerasensoren mit einem unterschiedlichen Auflösungsvermögen unterschiede in den Größen bei den Bildaufnahmen. Auch werden häufig aufgrund unterschiedlicher Kameraoptiken unterschiedlich große Bildbereiche erfasst. Weiterhin können z.B. die physikalischen Eigenschaften der Kamerachips völlig unterschiedlich sein, sodass beispielsweise eine Kamera Umgebungsinformationen im sichtbaren Wellenlängenspektrum und eine weitere Kamera Umgebungsinformationen im Infraroten Spektrum erfasst, wobei die Bildaufnahmen ein völlig unterschiedliches Auflösungsvermögen aufweisen können.in the In connection with the invention, the different sensor signal properties are based in the sensor signal currents essentially on different positions and / or orientations and / or Sensor sizes of used sensors. In addition to position and / or orientation deviations or individual components thereof cause mainly deviations in the used sensor sizes different Sensor signal properties in the individual sensor signal currents. For example, cause Camera sensors with a different resolution differ in the sizes the pictures. Also, become common due to different camera optics different sized image areas detected. Furthermore you can e.g. the physical properties of the camera chips completely different so that, for example, a camera has environmental information in it visible wavelength spectrum and another camera environment information in the infrared spectrum recorded, the images have a completely different resolution can.

Im Rahmen der Auswertung besteht in vorteilhafter Weise die Möglichkeit, dass jede Objekthypothese einzeln für sich klassifiziert wird und die Ergebnisse der einzelnen Klassifikationen kombiniert werden, wobei wenigstens ein Klassifikator vorgesehen ist. Falls mehrere Klassifikatoren zum Einsatz kommen, kann dabei z.B. für jede unterschiedliche Art von Objekt jeweils ein Klassifikator vorgesehen sein. Falls lediglich ein Klassifikator vorgesehen ist, wird zunächst jede Objekthypothese mittels des Klassifikators klassifiziert und sodann die Ergebnisse mehrerer einzelner Klassifikationen zu einem Gesamtergebnis kombiniert. Hierzu sind dem Fachmann auf dem Gebiet der Mustererkennung und Klassifikation unterschiedliche Auswertestrategien bekannt. Bei einer weiteren vorteilhaften Weise der Erfindung ist es jedoch auch möglich, dass in dem wenigstens einen Klassifikator Merkmale von Objekthypothesen unterschiedlicher Sensorsignalströme gemeinsam bewertet und zu einem Klassifikationsergebnis zusammengefasst werden. Für die zuverlässige Erkennung eines bestimmten Objekts muss hierbei beispielsweise eine vorbestimmte Anzahl an Objekthypothesen eine Mindestwahrscheinlichkeit bei der Klassenzugehörigkeit zu dieser bestimmten Objektklasse erreichen. Auch sind dem Fachmann auf dem Gebiet der Mustererkennung und Klassifikation in diesem Zusammenhang unterschiedlichste Auswertestrategien bekannt.In the context of the evaluation, there is advantageously the possibility that each object hypothesis is individually classified for itself and the results of the individual classifications are combined, at least one classifier being provided. If several classifiers are used, a classifier can be provided for each different type of object, for example. If only one classifier is provided, each object hypothesis is first classified by means of the classifier, and then the results of several individual classifications are combined into a total result. For this purpose, the expert in the field of pattern recognition and classification different evaluation strategies are known. In a further advantageous manner of the invention, however, it is also possible that in the at least a classifier characteristics of object hypotheses of different sensor signal currents are evaluated together and combined to form a classification result. For the reliable recognition of a specific object, a predetermined number of object hypotheses, for example, must achieve a minimum probability in class membership of this particular object class. Also, the expert in the field of pattern recognition and classification in this context a wide variety of evaluation strategies are known.

Weiterhin ist es von großem Vorteil, falls das Raster, in welchem die Objekthypothesen erzeugt werden, in Abhängigkeit des Klassifikationsergebnisses adaptiv angepasst wird. Beispielsweise wird die Rasterweite in Abhängigkeit des Klassifikationsergebnisses adaptiv angepasst, wobei Objekthypothesen nur an den Rasterpunkten generiert werden bzw. Suchfenster nur an Rasterpunkten positioniert werden. Falls Objekthypothesen zunehmend keiner Objektklasse zugeordnet werden oder gar keine Objekthypothesen generiert werden, wird die Rasterweite vorzugsweise kleiner gewählt. Im Gegensatz dazu wird die Rasterweite größer gewählt falls Objekthypothesen zunehmend einer Objektklasse zugeordnet werden bzw. die Wahrscheinlichkeit für eine Objektklassenzugehörigkeit steigt. Auch ist in diesem Zusammenhang ein Einsatz einer hierarchischen Struktur für das Hypothesenraster möglich. Außerdem kann das Raster in Abhängigkeit des Klassifikationsergebnisses eines vorangegangenen Zeitschrittes adaptiv angepasst werden, eventuell unter Berücksichtigung eines dynamischen Systemmodells.Farther is it great Advantage, if the grid in which generates the object hypotheses be, depending the classification result is adapted adaptively. For example the screen ruling becomes dependent the classification result adapted adaptively, where object hypotheses only generated at the grid points or search window only on Grid points are positioned. If object hypotheses increasingly No object class can be assigned or no object hypotheses are generated, the grid width is preferably selected smaller. in the In contrast, the grid size is larger if object hypotheses are increasingly assigned to an object class or the probability of an object class affiliation increases. Also in this context is a use of a hierarchical Structure for the hypothesis grid possible. Furthermore can the grid depending on the classification result of a previous time step be adapted adaptively, possibly taking into account a dynamic System model.

In einer weiteren vorteilhaften Weise wird das Auswerteverfahren, mittels welchem die Objekthypothesen bewertet werden, in Abhängigkeit von wenigstens einer vorangegangenen Bewertung automatisch angepasst wird. Hierbei wird beispielsweise lediglich das zuletzt vorangegangene Klassifikationsergebnis oder aber mehrere vorangegangene Klassifikationsergebnisse berücksichtigt. Beispielsweise werden hierbei lediglich einzelne Parameter eines Auswerteverfahren und/oder aus mehreren Auswerteverfahren ein geeignetes Auswerteverfahren ausgewählt. Grundsätzlich sind in diesem Zusammenhang die unterschiedlichsten Auswerteverfahren möglich, welche beispielsweise auf statistischen und/oder modellbasierten Ansätzen beruhen können. Die Art der für die Auswahl zur Verfügung gestellten Auswerteverfahren hängt dabei auch von der Art der eingesetzten Sensoren ab.In In a further advantageous manner, the evaluation method, by means of which the object hypotheses are evaluated, depending on automatically adjusted by at least one previous rating becomes. Here, for example, only the last preceding Classification result or several previous classification results considered. For example, only individual parameters of a Evaluation method and / or from several evaluation a suitable Evaluation method selected. in principle are in this context the most diverse evaluation methods possible, which, for example, based on statistical and / or model-based approaches can be based. The type of for the choice available depends on the evaluation procedure This also depends on the type of sensors used.

Weiterhin besteht auch die Möglichkeit, dass in Abhängigkeit des Klassifikationsergebnisses sowohl das Raster adaptiv angepasst wird, als auch das für die Bewertung herangezogene Auswerteverfahren angepasst wird. Das Raster wird in einer gewinnbringenden Weise nur an den Positionen im Suchraum verfeinert, wo die Wahrscheinlichkeit oder Bewertung für das Vorhandensein von Objekten hoch genug ist, wobei die Bewertung aus den letzten Rasterstufen abgeleitet wird.Farther there is also the possibility that in dependence the classification result adaptively adapted both the grid will, as well as for the evaluation method used is adjusted. The Raster will be profitable only at positions Refined in the search space, where the probability or rating for the Presence of objects is high enough, with the rating off derived from the last raster steps.

Die unterschiedlichen Sensorsignalströme können zeitgleich, aber auch zeitversetzt verwendet werden. Genauso kann in vorteilhafter Weise auch ein einzelner Sensorsignalstrom gemeinsam mit wenigstens einer zeitversetzten Version desselben verwendet werden.The different sensor signal currents can be simultaneously, but also be used with a time delay. The same can be done in an advantageous way also a single sensor signal current together with at least one delayed version of the same.

Das erfindungsgemäße Verfahren kann außer zur Objekterkennung auch zur Verfolgung von erkannten Objekten verwendet werden.The inventive method can except used for object recognition also for tracking detected objects become.

Das erfindungsgemäße Verfahren kann insbesondere zur Umgebungserfassung und/oder Objektverfolgung bei einem Straßenfahrzeug verwendet werden. Beispielsweise eignet sich für den Einsatz bei einem Straßenfahrzeug eine Kombination aus einer im sichtbaren Wellenlängenspektrum empfindlichen Farbkamera und einer im infraroten Wellenlängenspektrum empfindlichen Kamera. Damit können bei Nacht einerseits Personen und andererseits die farbigen Signalleuchten von Verkehrsampeln im Umfeld des Straßenfahrzeugs auf zuverlässige Weise erfasst werden. Die von den beiden Sensoren gelieferten Informationen werden dabei mit dem erfindungsgemäßen Verfahren zur multisensoriellen Objekterkennung ausgewertet, um beispielsweise darin enthaltene Personen zu erkennen und nachzuverfolgen. Die Sensorinformationen werden dem Fahrer dabei vorzugsweise auf einer im Fahrzeugcockpit angeordneten Anzeigeeinheit in der Form von Bilddaten präsentiert, wobei Personen und Signalleuchten von Ampelanlagen in den angezeigten Bildinformationen hervorgehoben sind. Für den Einsatz bei einem Straßenfahrzeug eignen sich im Zusammenhang mit dem erfindungsgemäßen Verfahren als Sensoren neben Kameras vor allem auch Radar- und Lidarsensoren. Das Erfindungsgemäße verfahren ist darüber hinaus für den Einsatz unterschiedlichster Arten von Bildsensoren und beliebigen anderen aus dem Stand der Technik bekannten Sensoren geeignet.The inventive method can in particular for environment detection and / or object tracking in a road vehicle be used. For example, it is suitable for use in a road vehicle a combination of a sensitive in the visible wavelength spectrum Color camera and sensitive in the infrared wavelength spectrum Camera. With that you can at night on the one hand people and on the other hand the colored signal lights of traffic lights around the road vehicle in a reliable manner be recorded. The information provided by the two sensors be doing with the inventive method for multi-sensorial Object detection evaluated, for example, contained therein Recognize and track people. The sensor information The driver is preferably on a in the cockpit arranged display unit presented in the form of image data, where people and signal lights of traffic lights in the displayed Image information is highlighted. For use with a road vehicle are suitable in connection with the method according to the invention as sensors in addition to cameras, especially radar and lidar sensors. The inventive method is about it out for the use of different types of image sensors and any other known from the prior art sensors suitable.

Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden Beschreibung von bevorzugten Ausführungsbeispielen anhand der Figuren. Dabei zeigen:Further Features and advantages of the invention will become apparent from the following Description of preferred embodiments with reference to Characters. Showing:

1 links eine mittels einer NIR-Kamera und rechts eine mittels einer FIR-Kamera erfasste Umgebungsszene 1 on the left, an environmental scene captured by means of an FIR camera, on the left, and on the right, an environment scene

2 eine suboptimale Zuordnung zweier Sensorsignalströme 2 a suboptimal assignment of two sensor signal currents

3 die Merkmalsbildung im Zusammenhang mit einem Multistrom-Detektor 3 the feature building in connection with a multi-stream detector

4 die geometrische Bestimmung des Suchraumes 4 the geometric determination of the search space

5 eine resultierende Hypothesenmenge bei einem Einzelstrom-Hypothesengenerator 5 a resulting set of hypotheses in a single-stream hypothesis generator

6 die Epipolargeometrie eines Zweikamerasystems 6 the epipolar geometry of a two-camera system

7 die Epipolargeometrie am Beispiel einer Fußgängerdetektion 7 the epipolar geometry using the example of pedestrian detection

8 die Ursache für Skalierungsunterschiede in Korrespondenzsuchfenstern 8th the cause of scaling differences in correspondence search windows

9 resultierende Korrespondenzen im NIR-Bild für ein Suchfenster im FIR-Bild 9 resulting correspondences in the NIR image for a search window in the FIR image

10 die Relaxation der Korrespondenzbedingung 10 the relaxation of the correspondence condition

11 Korrespondenzfehler zwischen Label- und Korrespondenzsuchfenster 11 Correspondence error between label and correspondence search window

12 wie Multistrom-Hypothesen entstehen 12 how multistrom hypotheses arise

13 Vergleich von Detektionsraten bei unterschiedlicher Rasterweite 13 Comparison of detection rates with different screen rulings

14 die Detektorantwort in Abhängigkeit der erreichten Detektionsstufe 14 the detector response as a function of the detection level achieved

15 eine Grob-Zu-Fein-Suche im eindimensionalen Fall 15 a coarse-to-fine search in the one-dimensional case

16 beispielhaft die Nachbarschaftsdefinition 16 for example, the neighborhood definition

17 einen Hypothesenbaum 17 a hypothesis tree

In der 1 ist links eine mittels einer NIR-Kamera und rechts eine mittels einer FIR-Kamera erfasste Umgebungsszene dargestellt. Die beiden Kamerasensoren und die damit aufgezeichneten Intensitätsbilder unterscheiden sich dabei stark. Das auf der linken Seite gezeigte NIR-Bild weist eine hohe Varianz in Abhängigkeit der Beleuchtungsverhältnisse und Oberflächeneigenschaften auf. Dem entgegen sind die von der FIR-Kamera erfassten Wärmestrahlen, welche im rechten Teilbild dargestellt sind, fast ausschließlich direkte Emissionen der Objekte. Gerade Fußgänger erzeugen durch ihre Eigenwärme eine ausgeprägte Signatur in Wärmebildern und heben sich in Landstraßenszenarien stark vom Hintergrund ab. Diesem offensichtlichen Vorteil des FIR-Sensors steht aber dessen Auflösung gegenüber: Sie ist in X- und Y-Richtung jeweils um den Faktor 4 kleiner als die der NIR-Kamera. Durch diese grobe Abtastung gehen wichtige hochfrequente Signalanteile verloren. Beispielsweise hat ein Fußgänger in 50m Entfernung im FIR-Bild nur noch eine Höhe von 10 Pixeln. Auch die Quantisierung unterscheidet sich dabei, wobei beide Kameras zwar 12 Bit Grauwertbilder liefern, jedoch erstreckt sich der für die Detektionsaufgabe relevante Dynamikbereich bei der NIR-Kamera auf 9 Bit und bei der FIR-Kamera auf nur 6 Bit. Daraus resultiert ein 8-fach größerer Quantisierungsfehler. Bei dem NIR-Kamerabild sind Objektstrukturen gut zu erkennen, die Abbildung ist dabei abhängig von Beleuchtung und Oberflächenstruktur und es weist eine hohe Intensitätsvarianz auf. Im Gegensatz dazu sind bei dem FIR-Kamerabild Objektstrukturen schlecht zu erkennen, die Abbildung ist hierbei von Emissionen abhängig, wobei sich der Fußgänger vom kalten Hintergrund deutlich abhebt. Aufgrund der Tatsache, dass beide Sensoren verschiedenartige Vorteile aufweisen, und zwar geradeso, dass die Stärken des einen die Schwächen des anderen sind, ist der Einsatz dieser Sensoren im Zusammenhang bei dem erfindungsgemäßen Verfahren besonders vorteilhaft. Dabei lassen sich die Vorteile beider Sensoren in einem Klassifikator vereinen, welcher die Detektionsleistung von Einzelstrom-Klassifikatoren deutlich übertrifft.In the 1 on the left is an environmental scene captured by means of an NIR camera and on the right a scene captured by means of an FIR camera. The two camera sensors and the intensity images recorded with them differ greatly. The NIR image shown on the left has a high variance depending on lighting conditions and surface properties. In contrast, the heat rays detected by the FIR camera, which are shown in the right-hand part of the picture, are almost exclusively direct emissions of the objects. Due to their intrinsic heat, pedestrians in particular generate a pronounced signature in thermal images and stand out greatly from the background in country road scenarios. However, this obvious advantage of the FIR sensor is contrasted with its resolution: it is four times smaller in the X and Y direction than that of the NIR camera. Due to this rough sampling, important high-frequency signal components are lost. For example, a pedestrian 50 meters away in the FIR image only has a height of 10 pixels. The quantization also differs, with both cameras providing 12-bit gray scale images, however, the dynamic range relevant for the detection task extends to 9 bits for the NIR camera and to only 6 bits for the FIR camera. This results in an 8 times larger quantization error. In the NIR camera image object structures are clearly visible, the image is dependent on lighting and surface structure and it has a high intensity variance. In contrast, in the FIR camera image object structures are difficult to detect, the image is dependent on emissions, with the pedestrian stands out clearly from the cold background. Due to the fact that both sensors have various advantages, namely that the strengths of one are the weaknesses of the other, the use of these sensors in the context of the inventive method is particularly advantageous. The advantages of both sensors can be combined in one classifier, which clearly outperforms the detection performance of single-stream classifiers.

Der Begriff Sensorfusion bezeichnet die Nutzung mehrerer Sensoren und die Erzeugung einer gemeinsamen Repräsentation. Das Ziel ist dabei, die Genauigkeit der gewonnenen Informationen zu erhöhen. Bezeichnend ist hierbei die Vereinigung von Messdaten in einem perzeptuellen System. Die Sensorintegration dagegen bezeichnet die Nutzung verschiedener Sensoren für mehrere Teilaufgaben, wie etwa Bilderkennung zur Lokalisierung und haptische Sensorik zur nachfolgenden Manipulation mit Aktoren.The term sensor fusion refers to the use of multiple sensors and the generation of a common representation. The goal is to increase the accuracy of the information obtained. Characteristic here is the union of measured data in a perceptual system. The sensor integration By contrast, the use of different sensors for several subtasks, such as image recognition for localization and haptic sensors for subsequent manipulation with actuators.

Fusionsansätzen lassen sich anhand ihrer resultierenden Repräsentationen in Kategorien einteilen. Es werden dabei beispielsweise folgende vier Fusionsebenen unterschieden:

  • • Fusion auf Signalebene: Hierbei werden direkt die Rohsignale betrachtet. Ein Beispiel ist die Lokalisierung von akustischen Quellen aufgrund von Phasenverschiebungen.
  • • Fusion auf Pixelebene: Im Gegensatz zur Signalebene wird der räumliche Bezug von Pixeln zu Objekten im Raum betrachtet. Beispiele sind Extraktion von Tiefeninformation mit Stereokameras oder auch die Berechnung des optischen Flusses in Bildfolgen.
  • • Fusion auf Merkmalsebene: Bei der Fusion auf Merkmalsebene werden unabhängig Merkmale beider Sensoren extrahiert. Diese werden z.B. in einem Klassifikator oder einem Lokalisierungsverfahren kombiniert.
  • • Fusion auf Symbolebene: Symbolische Repräsentationen sind beispielsweise Wörter oder Sätze bei der Spracherkennung. Durch Grammatiken entstehen logische Beziehungen zwischen Wörtern. Diese wiederum können die Interpretation von akustischen und visuellen Signalen steuern.
Fusion approaches can be categorized based on their resulting representations. For example, the following four fusion levels are distinguished:
  • • Fusion at the signal level: The raw signals are viewed directly here. An example is the localization of acoustic sources due to phase shifts.
  • • Pixel-level fusion: In contrast to the signal plane, the spatial reference of pixels to objects in space is considered. Examples are extraction of depth information with stereo cameras or the calculation of optical flow in image sequences.
  • • Feature-level fusion: Feature-level fusion independently extracts features from both sensors. These are combined, for example, in a classifier or a localization method.
  • • Symbol-level fusion: For example, symbolic representations are words or phrases used in speech recognition. Grammars create logical relationships between words. These in turn can control the interpretation of acoustic and visual signals.

Eine weitere Form der Fusion ist die Klassifikatorfusion. Hierbei werden die Ergebnisse mehrerer Klassifikatoren vereint. Dabei sind die Datenquellen oder die Sensoren nicht zwingend verschieden. Das Ziel ist es hierbei, den Klassifikationsfehler durch Redundanz zu verkleinern. Entscheidend ist, dass die Einzelklassifikatoren möglichst unkorrelierte Fehler aufweisen. Einige Methoden zur Fusion von Klassifikatoren sind beispielsweise:

  • • Gewichtete Mehrheitsentscheidung: Ein einfaches Prinzip ist die Mehrheitsentscheidung, also die Wahl der Klasse die von den meisten Klassifikatoren ausgegeben wurde. Jeder Klassifikator kann entsprechend seiner Zuverlässigkeit gewichtet werden. Mittels Lerndaten können ideale Gewichte ermittelt werden.
  • • Bayes-Kombination: Für jeden Klassifikator kann eine Konfusionsmatrix berechnet werden. Das ist eine Verwechslungsmatrix, die die Häufigkeit von allen Klassifikatorergebnissen für jede tatsächliche Klasse angibt. Mit ihr können bedingte Wahrscheinlichkeiten für resultierende Klassen approximiert werden. Nun werden alle Klassifikationen mit Hilfe des Bayes-Theorems auf Wahrscheinlichkeiten für Klassenzugehörigkeiten abgebildet. Als Endresultat wird sodann das Maximum gewählt.
  • • Stacked Generalization: Die Idee bei diesem Ansatz ist die Verwendung der Klassifikatorergebnisse als Eingänge bzw. Merkmale eines weiteren Klassifikators. Der weitere Klassifikator kann dabei mit dem Vektor der Ergebnisse und dem Label des ersten Klassifikators trainiert werden.
Another form of fusion is the classifier fusion. Here the results of several classifiers are united. The data sources or the sensors are not necessarily different. The goal here is to reduce the classification error by redundancy. The decisive factor is that the individual classifiers have errors that are as uncorrelated as possible. Some methods for merging classifiers include:
  • • Weighted majority decision: A simple principle is the majority decision, ie the choice of class issued by most classifiers. Each classifier can be weighted according to its reliability. Using learning data ideal weights can be determined.
  • • Bayes combination: For each classifier a confusion matrix can be calculated. This is a confusion matrix indicating the frequency of all classifier results for each actual class. It can be used to approximate conditional probabilities for resulting classes. Now all classifications are mapped to probabilities for class membership using the Bayes theorem. As the final result, the maximum is then selected.
  • • Stacked Generalization: The idea behind this approach is to use the classifier results as inputs or characteristics of another classifier. The further classifier can be trained with the vector of the results and the label of the first classifier.

Mögliche Fusionskonzepte bei der Detektion von Fußgängern sind die Detektorfusion und eine Fusion auf Merkmalsebene. Es existieren bereits akzeptable Lösungen für das Detektionsproblem mit nur einem Sensor, daher ist eine Kombination durch Klassifikatorfusion möglich. Bei dem hier betrachteten Fall mit zwei Klassifikatoren und einem Zweiklassenproblem führt eine Fusion durch gewichtete Mehrheitsentscheidung oder Bayes-Kombination entweder zu einer einfachen Und-Operation oder zu einer Oder-Operation der Einzeldetektoren. Die Und-Verknüpfung hat zur Folge, dass sich (bei gleicher Parametrisierung) die Zahl der Detektionen und damit die Detektionsrate nur verkleinern können. Bei einer Oder-Verknüpfung kann die Falschalarmrate nicht besser werden. Wie sinnvoll die jeweiligen Verknüpfungen sind, kann mit der Bestimmung der Konfusionsmatrizen und Analyse der Korrelationen ermittelt werden. Es kann aber eine Aussage über den entstehenden Aufwand gemacht werden: Im Falle der Oder-Verknüpfung müssen die Bilder beider Ströme abgetastet werden, der Aufwand ist mindestens die Summe des Aufwands beider Einzelstrom-Detektoren. Alternativ zur Und- bzw. Oder-Verknüpfung kann das Detektorergebnis des Kaskadenklassifikators als Rückschlusswahrscheinlichkeit interpretiert werden, indem die erreichte Stufe und die letzte Aktivierung auf eine Detektionswahrscheinlichkeit abgebildet werden. Damit lässt sich eine Entscheidungsfunktion auf nicht-binären Werten definieren. Eine andere Möglichkeit sieht vor, den einen Klassifikator zur Aufmerksamkeitssteuerung und den anderen Klassifikator zur Detektion zu nutzen. Ersterer sollte so parametrisiert sein, dass die Detektionsrate (zu Lasten der Falschalarmrate) hoch ist. Dadurch reduziert sich möglicherweise die Datenmenge des detektierenden Klassifikators, sodass diese leichter zu klassifizieren ist. Eine Fusion auf Merkmalsebene bietet sich hauptsächlich wegen der Verfügbarkeit von Boosting-Verfahren an. Die konkrete Kombination von Merkmalen aus beiden Strömen kann also mit der bereits genutzten Methode automatisiert auf Basis der Trainingsdaten geschehen. Das Resultat stellt näherungsweise eine optimale Wahl und Gewichtung der Merkmale aus beiden Strömen dar. Ein Vorteil ist hierbei der erweiterte Merkmalsraum. Sind bestimmte Teilmengen der Daten jeweils nur in einem der Einzelstrom-Merkmalsräume leicht zu trennen, dann kann durch die Kombination eine Trennung aller Daten vereinfacht werden. Beispielsweise ist im NIR-Bild die Fußgängersilhouette gut zu erkennen, dagegen ist im FIR-Bild ein beleuchtungsunabhängiger Kontrast zwischen Fußgänger und Hintergrund abgebildet. In der Praxis hat sich gezeigt, dass mit der Fusion auf Merkmalsebene die Zahl der notwendigen Merkmale drastisch gesenkt werden kann.Possible fusion concepts in the detection of pedestrians are the detector fusion and a merger on feature level. There are already acceptable solutions to the detection problem with only one sensor, so combining by classifier fusion is possible. In the case of two classifiers and a two class problem considered here, a merger by weighted majority vote or Bayesian combination results in either a simple and operation or an or operation of the single detectors. The AND operation has the consequence that (with the same parameterization) the number of detections and thus the detection rate can only be reduced. With an OR operation, the false alarm rate can not get better. How meaningful the respective links are can be determined by determining the confusion matrices and analyzing the correlations. However, it is possible to make a statement about the resulting effort: In the case of the OR operation, the images of both streams must be scanned; the effort is at least the sum of the expenditure of both single-stream detectors. As an alternative to the AND or OR combination, the detector result of the cascade classifier can be interpreted as a probability of inference by mapping the achieved level and the last activation to a detection probability. This allows a decision function to be defined on non-binary values. Another possibility is to use the one classifier for attention control and the other classifier for detection. The former should be parameterized so that the detection rate (at the expense of the false alarm rate) is high. This may reduce the amount of data of the detecting classifier, making it easier to classify. Feature-level fusion is mainly due to the availability of boosting techniques. The concrete combination of features from both streams can thus be done automatically with the already used method based on the training data. The result represents approximately an optimal choice and weighting of the features from both streams. An advantage here is the extended feature space. If certain subsets of the data can only be separated easily in one of the individual flow feature spaces, then the combination can simplify the separation of all data. For example, the pedestrian silhouette is clearly visible in the NIR image, whereas the FIR image shows an illumination-independent contrast between pedestrian and background. In practice it has been shown that with the merger at characteristic level the number of necessary Features can be drastically reduced.

Nachfolgend wird die Architektur des verwendeten Multistromklassifikators beschrieben. Für die Erweiterung des Einzelstrom-Klassifikators zum Multistrom-Klassifikator ist es erforderlich, dass viele Teile der Klassifikatorarchitektur überarbeitet werden. Eine Ausnahme ist dabei der Kernalgorithmus z.B. AdaBoost, welcher nicht notwendigerweise modifiziert werden muss. Dennoch können einige implementierungstechnische Optimierungen vorgenommen werden, welche die Dauer eines NIR-Trainingslaufes mit einer vorbestimmten Parametrisierung um ein Vielfaches senken. Es wird dabei die vollständige Tabelle der Merkmalswerte für alle Beispiele im Speicher gehalten. Ein weiterer Punkt ist die Optimierungen bei der Beispielgenerierung. Damit konnten beim praktischen Einsatz Trainingsläufe mit 16 Sequenzen in ca. 24 Stunden beendet werden. Vor dieser Optimierung dauerte ein Training mit nur drei Sequenzen zwei Wochen. Die Integration von weiteren Strömen in die Anwendung erfolgt im Zuge eines Redesigns der Implementierungen. Bei der Erweiterung des Hypothesengenerators sind dabei die meisten Modifikationen und Innovationen nötig.following the architecture of the used multistrom classifier is described. For the Extension of the single-stream classifier to the multi-stream classifier It is necessary that many parts of the classifier architecture be revised become. One exception is the kernel algorithm, e.g. AdaBoost, which does not necessarily have to be modified. Still, some can implementation-technical optimizations are made, which the duration of an NIR training run with a predetermined parameterization many times lower. It will be the complete table the characteristic values for all examples kept in memory. Another point is the Optimizations in the example generation. This could be practical Use training runs ended with 16 sequences in about 24 hours. Before this optimization Training with only three sequences took two weeks. The integration from further streams The application is implemented as part of a redesign of the implementations. In the expansion of the hypothesis generator are the most Modifications and innovations needed.

Im Folgenden werden die wesentlichen Erweiterungen hinsichtlich der Datenvorverarbeitung beschrieben. Der resultierende Detektor soll in Form eines Echtzeitsystems und mit Live-Daten der beiden Kameras zur Anwendung kommen. Für das Training werden gelabelte Daten herangezogen. Dafür steht eine umfangreiche Datenbank mit Sequenzen und Labels zur Verfügung, welche Landstraßenszenen mit am Straßenrand laufenden Fußgängern, Autos und Radfahrern beinhalten. Zwar zeichnen die Beiden verwendeten Sensoren ca. 25 Bildern pro Sekunde auf, die zeitliche Abtastung erfolgt dabei jedoch hardwarebedingt asynchron, die Zeitpunkte beider Aufnahmen sind dabei unabhängig. Wegen Schwankungen bei den Aufnahmezeitpunkten ist sogar eine deutliche Differenz der Bilderanzahl der beiden Kameras für eine Sequenz üblich. Eine Anwendung des Detektors ist nicht möglich, sobald auch nur ein Merkmal nicht zur Verfügung steht. Würde man beispielsweise bei fehlenden Merkmalen die jeweiligen Terme in der Stronglearnergleichung durch Nullen ersetzen, ist das Verhalten undefiniert. Dies macht das sequenzielle Abarbeiten der einzelnen Bilder der Multistrom-Daten unmöglich und verlangt sowohl für das Training als auch für die Anwendung eines Mulistrom-Detektors eine Synchronisierung der Sensordatenströme. In diesem Fall müssen also Bildpaare gebildet werden. Da die Aufnahmezeitpunkte der Bilder eines Paares nicht exakt gleich sind, ist jeweils ein anderer Zustand der Umgebung abgebildet. D.h. die Position des Fahrzeugs und die des Fußgängers ist jeweils eine andere. Um jeglichen Einfluss der Umgebungsdynamik zu minimieren, müssen die Bildpaare so gebildet werden, dass die Differenzen der beiden Zeitstempel minimal werden. Wegen der erwähnten unterschiedlichen Anzahl Messungen pro Zeiteinheit müssen entweder Bilder aus einem Strom mehrmals verwendet werden, oder es werden Bilder ausgelassen. Zwei Gründe sprechen für die letztere Methode: Erstens minimiert sie die durchschnittliche Zeitstempeldifferenz und zweitens würde die Mehrfachverwendung im Onlinebetrieb zu gelegentlichen Spitzen beim Rechenaufwand führen. Der nachfolgende Algorithmus beschreibt die Datensynchronisierung:

Figure 00170001
Figure 00180001
The following describes the major enhancements in terms of data preprocessing. The resulting detector will be used in the form of a real-time system and with live data from the two cameras. The training uses labeled data. An extensive database of sequences and labels is available for this purpose, which includes country road scenes with pedestrians running by the roadside, cars and cyclists. Although the two sensors used record approx. 25 pictures per second, the temporal sampling is done asynchronously due to the hardware, the times of both pictures are independent. Because of variations in the recording times even a significant difference in the number of images of the two cameras for a sequence is common. An application of the detector is not possible as soon as only one feature is not available. If, for example, you replace the respective terms in the Stronglearner equation with zeros for missing features, the behavior is undefined. This makes sequential execution of the individual images of the multi-stream data impossible and requires synchronization of the sensor data streams both for training and for the application of a multi-stream detector. In this case, image pairs must be formed. Since the recording times of the images of a pair are not exactly the same, a different state of the environment is shown in each case. That is, the position of the vehicle and that of the pedestrian is a different one. In order to minimize any influence of environmental dynamics, the image pairs must be formed so that the differences of the two time stamps become minimal. Because of the mentioned different number of measurements per unit of time, either images from a stream must be used several times, or images are omitted. Two reasons are in favor of the latter: First, it minimizes the average time stamp difference, and secondly, multiple use online would lead to occasional spikes in computational overhead. The following algorithm describes the data synchronization:
Figure 00170001
Figure 00180001

Hierbei sollte εs in Abhängigkeit der Verteilung von ts(i+1)-ts(i) gewählt werden und etwa 3σ betragen. Bei kleinen εs besteht die Möglichkeit, dass manche Bildpaare nicht gefunden werden, für große εs steigt die erwartete Zeitstempeldifferenz. Die Zuordnungsvorschrift entspricht einer Greedy-Strategie und ist damit im Allgemeinen suboptimal bezüglich der Minimierung der mittleren Zeitstempeldifferenz. Sie ist dadurch aber sowohl im Training als auch im Online-Betrieb der Anwendung einsetzbar. Für den Fall V ar(ts(i + 1) – ts(i)) = 0 und εs = 0 ∀s ist sie in vorteilhafter Weise optimal.In this case, ε s should be chosen as a function of the distribution of t s (i + 1) -t s (i) and should be about 3 σ . With small ε s, there is the possibility that some image pairs are not found, for large ε s the expected time stamp difference increases. The assignment rule corresponds to a greedy strategy and is therefore generally less than optimal with respect to minimizing the mean time stamp difference. However, it can be used both in training and in online operation of the application. In the case of V ar (t s (i + 1) -t s (i)) = 0 and ε s = 0 ∀ s , it is advantageously optimal.

In der 2 wird beispielhaft eine suboptimale Zuordnung zweier Sensorsignalströme gezeigt. Hierbei ist insbesondere das Ergebnis des zuvor gezeigten Zuordnungsalgorithmus dargestellt. In diesem Beispiel ist die Zuordnung suboptimal bezüglich der Minimierung der mittleren Zeitstempeldifferenz. Der Zuordnungsalgorithmus ist in dieser Form für die Anwendung einsetzbar, es entstehen in vorteilhafter Weise keine Verzögerungen durch Warten auf potentielle Zuordnungskandidaten.In the 2 For example, a suboptimal assignment of two sensor signal currents is shown. Here, in particular, the result of the allocation algorithm shown above is shown. In this example, the mapping is sub-optimal with respect to minimizing the mean timestamp difference. The assignment algorithm can be used in this form for the application, there are advantageously no delays due to waiting for potential assignment candidates.

Das Konzept für das Suchfenster spielt bei der Merkmalsbildung eine zentrale Rolle, insbesondere bei der Erweiterung des Detektors für den multisensoriellen Einsatz, wobei mehrere Sensorsignalströme vorhanden sind. Bei einem Einzelstrom-Detektor besteht die Lokalisation aller Objekte in einem Bild aus der Untersuchung einer Menge an Hypothesen. Eine Hypothese steht dabei für eine Position und Skalierung des Objekts im Bild. Daraus ergibt sich das Suchfenster, also der Bildausschnitt, welcher für die Merkmalsberechnung herangezogen wird. Im Multistrom-Fall besteht eine Hypothese aus einem Suchfenster-Paar, also aus je einem Suchfenster in jedem Strom. Dabei ist zu beachten, dass für ein einzelnes Suchfenster im einen Strom aufgrund des Parallaxenproblems verschiedene Kombinationen mit Suchfenstern im anderen Strom auftreten können. Somit kann sich eine sehr große Anzahl an Multistrom-Hypothesen ergeben. Eine Hypothesengenerierung für beliebige Kameraanordnungen wird im weiteren Verlauf noch aufgezeigt. Die Klassifikation basiert auf Merkmalen aus zwei Suchfenstern, wie dies anhand der 3 verdeutlicht wird. Die 3 zeigt dabei die Merkmalsbildung im Zusammenhang mit einem Multistrom-Detektor. Eine Multistrom-Merkmalsmenge entspricht der Vereinigung der beiden Merkmalsmengen, die sich für die Einzelstrom-Detektoren ergeben. Ein Multistrom-Merkmal ist definiert durch Filtertyp, Position, Skalierung und Sensorstrom. Im NIR-Suchfenster können aufgrund der höheren Bildauflösung kleinere Filter verwendet werden als im FIR-Suchfenster. Die Zahl der NIR-Merkmale ist somit höher als die Zahl der FIR-Merkmale. Bei diesem Ausführungsbeispiel wurden ca. 7000 NIR-Merkmale und ca. 3000 FIR-Merkmale verwendet.The search window concept plays a central role in feature formation, especially in the extension of the multi-sensor deployment detector, where multiple sensor signal streams are present. In a single-current detector, the localization of all objects in a picture consists of examining a set of hypotheses. A hypothesis stands for a position and scaling of the object in the image. This results in the search window, ie the image section, which is used for the feature calculation. In the multi-stream case, one hypothesis consists of a search window pair, that is, one search window in each stream. It should be noted that for a single search window in one stream due to the parallax problem, different combinations of search windows in the other stream may occur. Thus, a very large number of multi-stream hypotheses can arise. A hypothesis generation for any camera arrangements will be shown later. The classification is based on features of two search windows, as shown by the 3 is clarified. The 3 shows the feature formation in connection with a multi-stream detector. A multi-stream feature set corresponds to the union of the two feature sets that result for the single-stream detectors. A multi-stream feature is defined by filter type, position, scale, and sensor current. In the NIR search window smaller filters can be used due to the higher image resolution than in the FIR search window. The number of NIR features is thus higher than the number of FIR features. In this embodiment, approximately 7000 NIR features and approximately 3000 FIR features were used.

In einer vorteilhaften Weise werden während des Trainingsprozesses kontinuierlich neue Trainingsbeispiele gewählt. Vor dem Training mittels jeder Klassifikatorstufe wird unter Verwendung aller bereits trainierten Stufen eine neue Beispielmenge erzeugt. Im Multistrom-Training bestehen die Trainingsbeispiele wie die Hypothesen aus einem Suchfenster in jedem Strom. Positivbeispiele ergeben sich aus Labels, welche in jedem Strom vorhanden sind. Im Zusammenhang mit automatisch generierten Negativbeispielen kommt hierbei ein Zuordnungsproblem auf: Die zufällig gewählten Suchfenster müssen konsistent bezüglich der Projektionsgeometrie des Kamerasystems sein, sodass die Trainingsbeispiele mit den Multistrom-Hypothesen der späteren Anwendung übereinstimmen. Um dies zu erreichen, wird ein spezieller Hypothesengenerator, welcher nachfolgend noch detailliert beschrieben wird, bei der Bestimmung der Negativbeispiele verwendet. Anstatt wie bisher die Position und Größe des Suchfensters von Negativbeispielen unabhängig und zufällig zu wählen, wird nun zufällig in eine Hypothesenmenge gegriffen. Dabei weist die Hypothesenmenge neben konsistenten Suchfensterpaaren eine intelligentere, auf Weltmodellen basierende Verteilung der Hypothesen im Bild auf. Auch für das Einzelstrom-Training kann dieser Hypothesengenerator eingesetzt werden. Hierbei werden die Negativbeispiele mit der gleichen Suchstrategie bestimmt, welche später bei der Anwendung des Detektors zur Hypothesengenerierung dient. Die Beispielsmenge für das Multistrom-Training besteht also aus Positiv- und Negativbeispielen, welche wiederum jeweils ein Suchfenster in beiden Strömen beinhalten. Für das Training wird beispielsweise AdaBoost eingesetzt, wobei alle Merkmale aller Beispiele berechnet werden. Bei der Merkmalsselektion ändert sich gegenüber dem Einzelstrom-Training lediglich die Zahl der Merkmale, da aufgrund ihrer Definition und der damit verbundenen Multistrom-Datenquelle abstrahiert wird.In An advantageous way will be during the training process continuously selected new training examples. Before the training by means of each classifier level is calculated using all already trained levels created a new example set. Compete in multi-stream training the training examples like the hypotheses from a search window in every stream. Positive examples result from labels, which are present in every stream. In connection with automatically generated Negative examples come here a mapping problem: The randomly selected search window have to consistent regarding the projection geometry of the camera system, so the training examples agree with the multistrom hypotheses of later application. To achieve this, a special hypothesis generator is created will be described in detail below, in the determination used the negative examples. Instead of the position as before and size of the search window independent of negative examples and by chance to choose, will now be random into a set of hypotheses. In this case, the set of hypotheses in addition to consistent search window pairs a smarter, on world models based distribution of hypotheses in the picture. Also for single stream training This hypothesis generator can be used. Here are the negative examples with the same search strategy determines which later in the application of the detector for the generation of hypotheses. The example set for the multistrom training consists of positive and negative examples, which in turn each contain a search window in both streams. For the Training is used, for example, AdaBoost, with all the features all examples are calculated. The feature selection changes across from the single-stream training only the number of features, because due their definition and the associated multistrom data source is abstracted.

Die Architektur einer Multistrom-Detektoranwendung ist der eines Einzelstrom-Detektors sehr ähnlich. Die erforderlichen Modifikationen am System sind zum einen Anpassungen für das generelle Handling von mehreren Sensorsignalströmen, wodurch an fast allen Stellen der Implementierung Änderungen erforderlich sind. Zum anderen wird der Hypothesengenerator erweitert. Für die Generierung von Multistrom-Hypothesen ist eine Korrespondenzbedingung für Suchfenster beider Ströme notwendig, welche auf Welt- und Kameramodellen basiert. Somit muss eine Multistrom-Kamerakalibration in die Hypothesengenerierung integriert werden. Die für Einzelstrom-Detektoren verwendete Brute-Force-Suche im Hypothesenraum lässt sich zwar auf Multistrom-Detektoren übertragen, sie erweist sich dann aber häufig als zu ineffizient. Der Suchraum vergrößert sich dabei deutlich und die Zahl der Hypothesen vervielfacht sich. Um dennoch echtzeitfähig zu bleiben, muss die Hypothesenmenge wieder verkleinert werden und es sind intelligentere Suchstrategien erforderlich. Der im Zusammenhang mit diesem Ausführungsbeispiel verfolgte Fusionsansatz entspricht einer Fusion auf Merkmalsebene. Mittels Ada-Boost wird dabei eine Kombination aus Merkmalen beider Ströme gewählt. Auch andere Verfahren könnten hier zur Merkmalsauswahl und Fusion herangezogen werden. Die erforderlichen Änderungen am Detektor ist eine erweiterte Merkmalsmenge, eine Synchronisierung der Daten sowie die Erzeugung einer Hypothesenmenge, welche geometrische Zusammenhänge der Kameramodelle mit berücksichtigt.The Architecture of a multi-stream detector application is that of a single-current detector very similar. The necessary modifications to the system are on the one hand adjustments for the general handling of multiple sensor signal currents, resulting in almost all Make the implementation changes required are. On the other hand, the hypothesis generator is extended. For the Generation of multi-stream hypotheses is a correspondence condition for search window both streams necessary, which is based on world and camera models. Thus, must a multi-stream camera calibration be integrated into the hypothesis generation. The for single-stream detectors used brute force search in the hypothesis space while transmitting to multi-stream detectors, but then it turns out to be common as too inefficient. The search space increases significantly and the number of hypotheses multiplies. To still have real-time capability, must the set of hypotheses are scaled down again and they are smarter Search strategies required. The in connection with this embodiment pursued fusion approach corresponds to a merger at feature level. Ada-Boost will be a combination of features of both streams selected. Other methods could used here for feature selection and merger. The required changes at the detector is an extended feature set, a synchronization the data as well as the generation of a hypothesis set, which geometrical relationships the camera models are taken into account.

Nachfolgend wird die Herleitung einer Korrespondenzvorschrift, die Suchraumabtastung und weitere gewinnbringende Optimierungen vorgestellt. Mit dem trainierten Einzelstrom-Kaskadenklassifikator werden nacheinander einzelne Suchfenster evaluiert. Der Klassifikator liefert als Ergebnis eine Aussage, ob ein Objekt in genau dieser Position und Skalierung detektiert wurde. In jedem Bild können Fußgänger an unterschiedlichen Positionen mit verschiedenen Skalierungen erscheinen. Deshalb muss bei der Verwendung des Klassifikators als Detektor in jedem Bild eine große Menge an Positionen bzw. Hypothesen geprüft werden. Diese Hypothesenmenge kann durch Unterabtastung und Suchbereichseinschränkungen reduziert werden. Damit kann der Berechnungsaufwand ohne Beeinträchtigung der Detektionsleistung vermindert werden. Aus dem Stand der Technik sind hierfür Hypothesengeneratoren für Einzelstrom-Anwendungen bereit bekannt. Bei dem im Zusammenhang mit diesem Ausführungsbeispiel vorgestellten Multistrom-Detektor werden Hypothesen über ein Suchfensterpaar, also über ein Suchfenster in jedem Strom definiert. Die Suchfenster lassen sich zwar in beiden Strömen mit zwei Einzelstrom-Hypothesengeneratoren erzeugen, die Verknüpfung zur Multistrom-Hypothesenmenge ist aber aufgrund der Parallaxe nicht trivial. Die Zuordnung von zwei Suchfenstern aus verschiedenen Strömen zu einer Multistrom-Hypothese muss dabei bestimmte geometrische Bedingungen erfüllen. Um eine Robustheit gegen Kalibrationsfehler und Dynamikeinflüsse zu erreichen, werden des Weiteren Relaxationen dieser geometrischen Korrespondenzbedingungen eingeführt. Schließlich wird eine konkrete Abtast- und Zuordnungsstrategie gewählt. Es entstehen hierbei sehr viel mehr Hypothesen als bei Einzelstrom-Detektoren. Um die Echtzeitfähigkeit des Multistrom-Detektors zu gewährleisten, werden nachfolgend weitere Optimierungsstrategien aufgezeigt, unter anderem auch eine sehr effektive Methode zur Hypothesenreduktion über eine dynamische lokale Steuerung der Hypothesendichte, welche gleichsam auch im Zusammenhang mit Einzelstrom-Detektoren einsetzbar ist. Die einfachste Suchstrategie zum Auffinden von Objekten an allen Positionen im Bild ist das pixelweise Abtasten des gesamten Bildes in allen möglichen Suchfenstergrößen. Das ergibt bei einem Bild mit 640×480 Pixeln eine Hypothesenmenge mit ca. 64 Millionen Elementen. Diese Hypothesenmenge wird im Folgenden als vollständiger Suchraum des Einzelstrom-Detektors bezeichnet. Mit Hilfe einer im Folgenden beschriebenen Bereichseinschränkung auf Basis eines einfachen Weltmodells sowie einer skalierungsabhängigen Unterabtastung des Suchraums, kann die Zahl der zu untersuchenden Hypothesen in besonders vorteilhafter Weise auf ca. 320.000 reduziert werden. Grundlage für die Bereichsbeschränkung ist zum einen die sogenannte "Ground-Plane-Assumption", die Annahme, dass die Welt eben ist, wobei sich die zu detektierenden Objekte und das Fahrzeug auf gleicher Ebene befinden. Zum anderen kann aufgrund der Objektgröße im Bild und einer Annahme bezüglich der realen Objektgröße eine eindeutige Position im Raum abgeleitet werden. Damit liegen alle Hypothesen einer Skalierung im Bild auf einer waagrechten Geraden. Beide Annahmen, also die "Ground-Plane-Assumption" sowie die bzgl. einer festen realen Objektgröße treffen in der Regel nicht zu. Die Einschränkungen werden deswegen relaxiert, so dass für die Objektposition als auch für deren Größe im Raum ein gewisser Toleranzbereich zugelassen wird, dieser Sachverhalt ist in der 4 veranschaulicht. Die Relaxation der "Ground-Plane-Assumption" wird dabei durch einen Winkel ε angegeben, der bei diesem Ausführungsbeispiel z.B. 1° beträgt. Damit werden auch Orientierungsfehler im Kameramodell kompensiert, welche beispielsweise durch Nickbewegungen des Fahrzeugs entstehen können. Neben der beschriebenen Bereichsbeschränkung wird durch eine skalierungsabhängige Unterabtastung die Anzahl der zu untersuchenden Hypothesen weiter reduziert. Die Schrittweite der Abtastung in u- und v-Richtung in der 4 werden dabei proportional zur Hypothesenhöhe, also der Skalierung, gewählt und beträgt in diesem Beispiel etwa 5% der Hypothesenhöhe. Die Suchfensterhöhen selbst ergeben sich aus einer Reihe von Skalierungen, die beginnend mit 25 Pixeln im NIR-Bild (8 Pixel in FIR-Bild) jeweils um 5% größer werden. Diese Art der Quantisierung lässt sich mit einer Eigenschaft des Detektors motivieren, nämlich der Tatsache, dass mit der Größenskalierung der Merkmale auch die Unschärfe ihrer Lokalisation im Bild zunimmt, wie dies z.B. bei einem Haarwavelet oder ähnlichen Filtern der Fall ist. Die Merkmale sind hierbei in einem festen Raster definiert und werden entsprechend der Größe der Hypothese mitskaliert. Mit der beschriebenen Hypothesengenerierung ergibt sich in diesem Fall im NIR-Bild eine Reduktion der 64 Millionen Hypothesen des vollständigen Suchraumes auf 320.000. Im FIR-Bild sind es aufgrund der niedrigen Bildauflösung 50.000 Hypothesen, hierzu wird auch auf 5 verwiesen. Für die Berücksichtigung der im dreidimensionalen Raum definierten Einschränkungen ist eine Transformation zwischen Bildkoordinaten und Weltkoordinaten notwendig. Basis dafür sind die durch die Kalibration ermittelten intrinsischen und extrinsischen Kameraparameter. Die geometrischen Zusammenhänge für die Projektion eines 3D-Punktes auf die Bildebene sind dem Fachmann auf dem Gebiet der Bildauswertung bekannt. Aufgrund der geringen Verzeichnungen bei beiden Kameras kann in diesem Ausführungsbeispiel ein Lochkameramodell verwendet werden.The derivation of a correspondence rule, search space sampling and other profitable optimizations are presented below. The trained single-stream cascade classifier evaluates individual search windows one after the other. As a result, the classifier provides a statement as to whether an object was detected in exactly this position and scaling. In each image, pedestrians can appear in different positions with different scales. Therefore, when using the classifier as a detector, a large number of positions or hypotheses must be checked in each image. This set of hypotheses can be reduced by subsampling and search range constraints. Thus, the calculation effort can be reduced without affecting the detection performance. For this purpose, hypothesis generators for single-stream applications are already known from the prior art. In the multistrom detector presented in connection with this exemplary embodiment, hypotheses are defined via a search window pair, that is to say via a search window in each stream. Although the search windows can be generated in two streams with two single-stream hypothesis generators, the link to the multistrom hypothesis set is not trivial due to the parallax. The assignment of two search windows from different streams to a multi-stream hypothesis must fulfill certain geometric conditions. In order to achieve robustness against calibration errors and dynamic influences, furthermore, relaxations of these geometric correspondence conditions are introduced. Finally, a concrete sampling and allocation strategy is chosen. There are many more hypotheses than single-stream detectors. In order to ensure the real-time capability of the multistrom detector, further optimization strategies are shown below, including a very effective method for hypothesis reduction via a dynamic local control of the hypothesis density, which can also be used in connection with single-stream detectors. The simplest search strategy for finding objects at all positions in the image is the pixel-by-pixel scanning of the entire image in all possible search window sizes. This results in a picture with 640 × 480 pixels a hypothesis amount of about 64 million Ele instruments. This set of hypotheses is referred to below as the complete search space of the single-stream detector. With the aid of a range restriction described below on the basis of a simple world model and a scaling-dependent subsampling of the search space, the number of hypotheses to be examined can be reduced in a particularly advantageous manner to approximately 320,000. The basis for the range restriction is on the one hand the so-called "ground plane assumption", the assumption that the world is flat, with the objects to be detected and the vehicle being on the same level. On the other hand, due to the object size in the image and an assumption regarding the real object size, a unique position in space can be derived. All the hypotheses of a scaling in the image lie on a horizontal line. Both assumptions, ie the "ground plane assumption" as well as with respect to a fixed real object size are generally not true. The restrictions are therefore relaxed, so that a certain tolerance range is allowed for the object position as well as for their size in space, this situation is in the 4 illustrated. The relaxation of the "ground plane assumption" is indicated by an angle ε, which in this embodiment is for example 1 °. Thus, orientation errors in the camera model are compensated, which can arise, for example, by pitching movements of the vehicle. In addition to the described range limitation, the number of hypotheses to be examined is further reduced by a scaling-dependent subsampling. The step size of the scanning in u- and v-direction in the 4 are chosen proportional to the height of the hypothesis, ie the scaling, and in this example is about 5% of the hypothesis height. The search window heights themselves are the result of a series of scaling, each increasing by 5% starting with 25 pixels in the NIR image (8 pixels in FIR image). This type of quantization can be motivated with a property of the detector, namely the fact that the size scaling of the features also increases the blurring of their localization in the image, as is the case, for example, with a Haarwavelet or similar filters. The features are defined here in a fixed grid and are scaled according to the size of the hypothesis. With the hypothesis generation described in this case, a reduction of the 64 million hypotheses of the complete search space to 320,000 results in the NIR image. In the FIR image, there are due to the low resolution 50,000 hypotheses, this is also on 5 directed. For the consideration of the restrictions defined in three-dimensional space, a transformation between image coordinates and world coordinates is necessary. The basis for this are the intrinsic and extrinsic camera parameters determined by the calibration. The geometrical relationships for the projection of a 3D point onto the image plane are known to those skilled in the field of image analysis. Due to the small distortion in both cameras, a hole camera model can be used in this embodiment.

Die 4 veranschaulicht die geometrische Bestimmung des Suchraumes. Es wird hierbei der Suchbereich dargestellt, der sich für eine feste Skalierung ergibt. Berechnet wird eine Ober- und Untergrenze für die obere Suchfensterkante im Bild. Die Grenzen (vmin und vmax) ergeben sich, wenn das Objekt einmal mit der kleinsten und einmal mit der größten erwarteten Objektgröße (objmin bzw. objmax) auf die Bildebene projiziert wird. Hierbei wird der Abstand (zmin und zmax) so gewählt, dass die richtige Skalierung im Bild entsteht. Durch die relaxierte Einschränkung der Ground-Plane-Assumption liegt die räumliche Position zwischen den gestrichelt eingezeichneten Ebenen. Das kleinste und das größte Objekt werden für die Berechnung der Grenzen dabei entsprechend nach oben und unten verschoben.The 4 illustrates the geometric determination of the search space. Here, the search area is displayed, which results in a fixed scaling. An upper and lower limit is calculated for the upper search window edge in the image. The limits (v min and v max ) result when the object is projected onto the image plane once with the smallest and once with the largest expected object size (obj min or obj max ). Here, the distance (z min and z max ) is chosen so that the correct scaling is created in the image. Due to the relaxed restriction of the ground plane assumption, the spatial position lies between the dashed planes. The smallest and the largest object are moved up and down to calculate the limits.

In der 5 wird die resultierende Hypothesenmenge des Einzelstrom-Hypothesengenerators gezeigt. Es werden hierbei Suchfenster mit quadratgitterartiger Anordnung generiert. Für verschiedene Skalierungen entstehen unterschiedliche Quadratgitter mit angepassten Gitterabständen und eigenen Bereichsbeschränkungen. Im Sinne einer übersichtlichen Darstellung wird in der 5 nur ein Suchfenster für jede Skalierung sowie die Mittelpunkte aller anderen Hypothesen visualisiert. Die Darstellung ist exemplarisch, es wurden dabei große Skalierungs- und Positionsschrittweiten gewählt.In the 5 the resulting set of hypotheses of the single-stream hypothesis generator is shown. In this case, search windows with a grid-like arrangement are generated. For different scalings different square lattices are created with adapted lattice spacings and own area restrictions. In the sense of a clear representation is in the 5 visualized only one search window for each scaling as well as the midpoints of all other hypotheses. The illustration is exemplary, with large scaling and position increments selected.

Aus den Einzelstrom-Hypothesen entstehen somit durch geeignete Paarbildung Multistrom-Hypothesen. Die Epipolargeometrie ist dabei Grundlage für die Paarbildung, womit die geometrischen Zusammenhänge beschrieben werden. In der 6 wird die Epipolargeometrie eines Zweikamerasystems gezeigt. Die Epipolargeometrie beschreibt die Menge der möglichen Korrespondenzpunkte für einen Punkt in einer Bildebene. Für jeden Punkt p im Bild lassen sich Epipolarlinien und eine Epipolarebene konstruieren. Die möglichen Korrespondenzpunkte für Punkte einer Epipolarlinie in einem Bild sind dabei genau die auf der entsprechenden Epipolarlinie der anderen Bildebene. In der 6 wird insbesondere die Geometrie eines Multikamerasystems mit zwei beliebig angeordneten Kameras mit den Zentren O1 ∊ R3 und O2 ∊ R3 und einem beliebigen Punkt P ∊ R3 gezeigt. O1, O2 und P spannen dabei die sogenannte Epipolarebene auf. Sie schneidet die Bildebenen in den Epipolarlinien. Die Epipole sind die Schnittpunkte der Bildebenen mit der Geraden O1O2. O1O2 ist in allen Epipolarebenen aller möglichen Punkte P enthalten. Alle auftretenden Epipolarlinien schneiden sich also im jeweiligen Epipol. Die Epipolarlinien haben bei der Korrespondenzfindung die folgende Bedeutung: Für jeden Punkt p im Bild lassen sich Epipolarlinien und eine Epipolarebene konstruieren. Die möglichen Korrespondenzpunkte für Punkte einer Epipolarlinie in einem Bild sind genau die auf der entsprechenden Epipolarlinie der anderen Bildebene.From the single-stream hypotheses thus arise by suitable pairing multistrom hypotheses. The epipolar geometry is the basis for pair formation, which describes the geometric relationships. In the 6 the epipolar geometry of a dual-camera system is shown. The epipolar geometry describes the set of possible correspondence points for a point in an image plane. Epipolar lines and an epipolar plane can be constructed for every point p in the image. The possible correspondence points for points of an epipolar line in an image are exactly the same on the corresponding epipolar line of the other image plane. In the 6 In particular, the geometry of a multi-camera system with two arbitrarily arranged cameras with the centers O 1 ∈ R 3 and O 2 ∈ R 3 and an arbitrary point P ∈ R 3 is shown. O 1 , O 2 and P thereby span the so-called epipolar plane. It cuts the image planes in the epipolar lines. The epipoles are the intersections of the image planes with the line O 1 O 2 . O 1 O 2 is contained in all epipolar planes of all possible points P. All occurring epipolar lines thus intersect in the respective epipole. The Epipolarlinien have the following meaning in the correspondence: For each Point p in the image can be used to construct epipolar lines and an epipolar plane. The possible correspondence points for points of an epipolar line in one image are exactly those on the corresponding epipolar line of the other image plane.

Es sei nun Punkt P ∊ R3 ein Punkt im Raum. P1, P2 ∊ R3 sei die Darstellung von P in den Kamerakoordinatensystemen mit Ursprung O1 bzw. O2. Dann gibt es eine Rotationsmatrix R ∊ R3×3 und einen Translationsvektor T ∊ R3 für die gilt P2 = R(P1 – T). (5.1) Let point P ∈ R 3 be a point in space. Let P1, P2 ∈ R 3 be the representation of P in the camera coordinate systems with origin O 1 or O 2 . Then there is a rotation matrix R ∈ R 3 × 3 and a translation vector T ∈ R 3 for which holds P 2 = R (p 1 - T). (5.1)

R und T sind dabei durch die relativen extrinsischen Parameter des Kamerasystems eindeutig festgelegt. P1, T und P1 – T sind koplanar, d.h. (P1 – T)T·(T × P1) = 0. (5.2) R and T are clearly defined by the relative extrinsic parameters of the camera system. P 1 , T and P 1 - T are coplanar, ie (P 1 - T) T · (T × P 1 ) = 0. (5.2)

Mit Gleichung (5.1) und der Orthonormalität der Rotationsmatrix ergibt sich:

Figure 00270001
Equation (5.1) and the orthonormality of the rotation matrix give:
Figure 00270001

Das Kreuzprodukt kann nun in ein Skalarprodukt umgeschrieben werden:

Figure 00270002
The cross product can now be rewritten into a scalar product:
Figure 00270002

Damit ergibt sich aus Gleichung (5.3)

Figure 00270003
mit E := RS der Essentiellen Matrix. Nun ist eine Beziehung zwischen P1 und P2, hergestellt. Projiziert man sie mittels
Figure 00270004
so ergibt sich:
Figure 00270005
This results from equation (5.3)
Figure 00270003
with E: = RS of the Essential Matrix. Now, a relation between P 1 and P 2 is established. Projected by means of
Figure 00270004
this results in:
Figure 00270005

Hierbei ist f1,2 die fokale Länge und Z1,2 die Z-Komponente von P1,2. Damit ist die Menge aller möglichen Bildpunkte p2 im zweiten Bild, die mit einem Punkt p1 des ersten Bildes korrespondieren können genau die, für die die Gleichung (5.6) erfüllt ist. Mit dieser Korrespondenzbedingung für einzelne Bildpunkte können nun konsistente Suchfensterpaare aus den Einzelstrom-Hypothesen wie folgt gebildet werden: Das Seitenverhältnis der Suchfenster ist vorzugsweise per Definition fest, d.h. ein Suchfenster lässt sich eindeutig durch die Mittelpunkte der oberen und unteren Kante beschreiben. Mit der Korrespondenzbedingung für Bildpunkte ergeben sich so zwei Epipolarlinien im Bild der zweiten Kamera für die möglichen Mittelpunkte der Ober- und Unterkanten aller korrespondierenden Suchfenster, wie dies z.B. in der 7 dargestellt wird. Die 7 zeigt die Epipolargeometrie am Beispiel einer Fußgängerdetektion. Hierbei findet eine mehrdeutige Projektion eines Suchfensters vom Bild der rechten Kamera in das der linken Kamera statt. Die Korrespondenzsuchfenster ergeben sich dabei aus den Epipolarlinien der Mittelpunkte der Suchfensterunter- und -oberkanten. Die Darstellung ist im Sinne der Übersichtlichkeit hier nur illustrativ. Die Menge an möglichen Suchfensterpaaren soll all diejenigen Suchfensterpaaren beinhalten, welche Objekte mit realistischer Größe beschreiben. Berechnet man die Rückprojektion der Objekte in den Raum, kann mittels Triangulation Position und Größe des Objektes bestimmt werden. Der Bereich der Epipolarlinien wird dann auf Korrespondenzen mit gültiger Objektgröße reduziert, wie dies anhand der gepunkteten Linie in 7 gezeigt ist.Here f 1,2 is the focal length and Z 1,2 is the Z component of P 1,2 . Thus, the set of all possible pixels p 2 in the second image that can correspond to a point p 1 of the first image are exactly those for which the equation (5.6) is satisfied. With this correspondence condition for individual pixels, consistent search window pairs from the single-stream hypotheses can now be formed as follows: The aspect ratio of the search windows is preferably fixed by definition, ie a search window can be unambiguously described by the midpoints of the upper and lower edge. With the correspondence condition for pixels, two epipolar lines thus result in the image of the second camera for the possible midpoints of the upper and lower edges of all corresponding search windows, as described, for example, in US Pat 7 is pictured. The 7 shows the epipolar geometry using the example of pedestrian detection. Here, an ambiguous projection of a search window from the image of the right camera into that of the left camera takes place. The correspondence search windows result from the epipolar lines of the centers of the search window lower and upper edges. For reasons of clarity, the illustration is only illustrative here. The set of possible search window pairs should include all those search window pairs that describe objects of realistic size. If one calculates the backprojection of the objects into the space, the position and size of the object can be determined by means of triangulation. The range of epipolar lines is then reduced to correspondences with valid object size, as indicated by the dotted line in 7 is shown.

Es wird nun die Optimierung des Korrespondenzraumes beschrieben, wobei sich bei der Projektion eines Suchfensters von einem Sensorstrom in den anderen Sensorstrom mehrere Korrespondenzsuchfenster mit unterschiedlicher Skalierung ergeben. Dieser Skalierungsunterschied verschwindet jedoch, falls die Kamerapositionen und -ausrichtungen bis auf einen lateralen Versatz gleich sind. Für die Skalierung ist also nur ein Versatz d zwischen den Zentren O1 und O2 in Längsrichtung des Kamerasystems relevant, wie dies in derIt will now be described the optimization of the correspondence space, wherein in the projection result in a search window from one sensor current in the other sensor current several correspondence search window with different scaling. However, this difference in scale disappears if the camera positions and orientations are the same except for a lateral offset. For the scaling, therefore, only one offset d between the centers O 1 and O 2 in the longitudinal direction of the camera system is relevant, as described in US Pat

8 gezeigt wird. Der Orientierungsunterschied beider Kameras ist in diesem Beispiel vernachlässigbar. In der 8 wird dabei insbesondere die Ursache für die in den Korrespondenzsuchfenstern entstehenden Skalierungsunterschiede gezeigt und wobei bei der Projektion eines Suchfensters vom ersten in den zweiten Sensorstrom sich mehrere Korrespondenzsuchfenster mit unterschiedlicher Skalierung ergeben. Hierbei ist der geometrische Zusammenhang zwischen Kameraanordnung, Objektgrößen und Skalierungsunterschieden detailliert dargestellt. 8th will be shown. The difference in orientation of both cameras is negligible in this example. In the 8th In this case, the cause of the scaling differences arising in the correspondence search windows is shown in particular, and in the projection of a search window from the first into the second sensor stream, a plurality of correspondence search windows with different scaling results. Here, the geometric relationship between camera arrangement, object sizes and scaling differences is shown in detail.

Es ist eine feste Suchfenstergröße h1 im ersten Bild vorgegeben. Im Folgenden soll das Verhältnis

Figure 00290001
untersucht werden, wobei h2 min bzw. h2 max die minimale bzw. maximale auftretende Skalierung der Korrespondenzsuchfenster im zweiten Sensorstrom zum Suchfenster h1 im ersten Sensorstrom ist. Es seien Hmin = 1m die Höhe eines nahen Fußgängers und Hmax = 2m die Höhe eines weit entfernten Fußgängers, wobei hier nur Fußgänger betrachtet werden, welche eine minimale Größe von 1m und eine maximale Größe von 2m aufweisen. Beide Fußgänger seien so weit entfernt, dass sie im Bild der ersten Kamera die Höhe h1 aufweisen.There is a fixed search window size h 1 in the first image. The following is the relationship
Figure 00290001
where h 2 min or h 2 max is the minimum or maximum occurring scaling of the correspondence search window in the second sensor current to the search window h 1 in the first sensor current. Let H min = 1m the height of a nearby pedestrian and H max = 2m the height of a faraway pedestrian, only pedestrians being considered here having a minimum size of 1m and a maximum size of 2m. Both pedestrians are so far away that they have the height h1 in the picture of the first camera.

Seien weiterhin Z1 min, Z1 max, Z2 min und Z2 max die Objektabstände beider Objekte zu beiden Kameras, dann folgt Z2 min,max = Z1 min,max – d (5.7)und

Figure 00290002
Continue to be Z 1 min , Z 1 max , Z 2 min and Z 2 max the object distances of both objects to both cameras, then follows Z 2 min, max = Z 1 min, max - d (5.7) and
Figure 00290002

Das Skalierungsverhältnis ergibt sich dann ausThe scaling ratio then results

Figure 00300001
Figure 00300001

Für große Entfernungen geht das Skalierungsverhältnis gegen 1. Für eine Anwendung des Klassifikators als Frühwarnsystem in Landstraßenszenarien, kann man sich bei der Wahl von Z1 min auf Werte größer 20m beschränken. Der Versatz der Kameras ist im Versuchsträger ca. 2m. Zusammen mit den oben vorgeschlagenen Werten für die Fußgängergrößen ergibt sich, dass

Figure 00300002
gilt. Es lässt sich somit der Korrespondenzraum für ein Suchfenster im ersten Strom, also die Menge der korrespondierenden Suchfenster im zweiten Strom folgendermaßen vereinfachen: Die Skalierung aller korrespondierenden Suchfenster wird vereinheitlicht. Die verwendete Skalierung h2 für alle Korrespondenzen ist der Mittelwert der minimal und maximal auftretenden Skalierung:
Figure 00300003
For long distances, the scaling ratio goes to 1. For an application of the classifier as an early warning system in country road scenarios, one can limit itself to values greater than 20m when choosing Z 1 min . The offset of the cameras is about 2m in the test carrier. Together with the above suggested values for pedestrian sizes, it follows that
Figure 00300002
applies. Thus, the correspondence space for a search window in the first stream, that is to say the set of corresponding search windows in the second stream, can be simplified as follows: The scaling of all corresponding search windows is standardized. The scaling h 2 used for all correspondences is the mean of the minimum and maximum scaling:
Figure 00300003

Der verursachte Skalierungsfehler beträgt dabei maximal 2,75%. In der 9 werden Resultierende Korrespondenzen im NIR-Bild für ein Suchfenster im FIR-Bild gezeigt. Es wird dabei eine vereinheitlichte Skalierung für alle korrespondierenden Suchfenster verwendet.The resulting scaling error is a maximum of 2.75%. In the 9 Resulting correspondences in the NIR image are shown for a search window in the FIR image. It becomes a unified Ska used for all corresponding search windows.

Zur Modellierung des Korrespondenzfehlers ist in realen Anwendungen die oben beschriebene Paarbildung zur Erzeugung von Multistrom-Hypothesen häufig unzureichend. In gewinnbringender Weise werden folgende Faktoren darüber hinaus mit berücksichtigt:

  • • Fehler in den extrinsischen und intrinsischen Kameraparametern, verursacht durch Messfehler während der Kamerakalibrierung.
  • • Einflüsse der Umgebungsdynamik.
For modeling the correspondence error, in practice the pairing described above for generating multi-stream hypotheses is often inadequate. In a profitable way, the following factors are taken into account in addition:
  • • Errors in extrinsic and intrinsic camera parameters caused by measurement errors during camera calibration.
  • • Influences of the environmental dynamics.

Es besteht also ein unbekannter Fehler im Kameramodell. Dadurch entsteht eine Unschärfe sowohl für die Position als auch die Skalierung der korrelierenden Suchfenster, sie wird im Folgenden als Korrespondenzfehler bezeichnet. Der Skalierungsfehler wird aus folgenden Gründen vernachlässigt: Erstens ist der Einfluss der Dynamik auf die Skalierung sehr gering, wenn das Objekt mindestens 20m entfernt ist. Zweitens ist eine deutliche Unempfindlichkeit der Detektorantwort zu erkennen, was die Exaktheit der Hypothesenskalierung betrifft. Dies wird anhand von Mehrfachdetektionen sichtbar, deren Mittelpunkte zwar kaum variieren, jedoch variieren die Skalierungen dabei stark. Zur Kompensation des translativen Fehlers wird eine Relaxation der Korrespondenzbedingung eingeführt. Hierfür wird ein Toleranzbereich für die Position der korrelierenden Suchfenster definiert. Für jede dieser Korrespondenzen wird im Bild ein ellipsenförmiger Toleranzbereich mit den Radien ex und ey definiert, in dem weitere Korrespondenzen entstehen, wie dies anhand der 10 gezeigt wird. Dabei ist der Korrespondenzfehler für jede Suchfensterskalierung identisch. Der resultierende Toleranzbereich wird daher für jede Skalierung gleich gewählt.So there is an unknown error in the camera model. This creates a blur for both the position and the scaling of the correlated search windows, it is referred to below as a correspondence error. The scaling error is neglected for the following reasons: First, the influence of the dynamics on the scaling is very small if the object is at least 20m away. Secondly, a significant insensitivity of the detector response can be seen in terms of the accuracy of the hypothesis scaling. This can be seen by multiple detections, whose centers hardly vary, but the scales vary greatly. To compensate for the translational error, a relaxation of the correspondence condition is introduced. For this purpose, a tolerance range for the position of the correlated search window is defined. For each of these correspondences an ellipse-shaped tolerance range is defined in the image with the radii e x and e y , in which further correspondences arise, as shown by the 10 will be shown. The correspondence error is identical for each search window scaling. The resulting tolerance range is therefore chosen to be the same for every scaling.

In der 10 wird die Relaxation der Korrespondenzbedingung gezeigt. Die Positionen der korrelierenden Suchfenster sind hierbei nicht nur auf eine Strecke beschränkt. Sie können nun innerhalb eines elliptischen Bereiches um diese Strecke herum liegen. Im NIR-Bild sind dabei nur die Mittelpunkte der Suchfenster eingezeichnet. In Bezug auf diesen Korrespondenzfehler werden zur Bestimmung der Radien gelabelte Daten herangezogen. Die Radien des elliptischen Toleranzbereichs werden folgendermaßen bestimmt:

  • • Für jedes Multistrom-Label werden die Suchfenster in beiden Strömen bestimmt.
  • • Zu dem jeweiligen Suchfenster im ersten Strom werden alle möglichen Korrespondenzsuchfenster im zweiten Strom berechnet. Dabei wird eine nicht-relaxierte Korrespondenzbedingung verwendet.
  • • Das Korrespondenzsuchfenster, das dem Labelsuchfenster im zweiten Strom am nächsten kommt, wird für die Fehlerbestimmung herangezogen. Die Nähe zweier Suchfenster kann hier entweder durch die Überdeckung definiert sein, insbesondere durch das Verhältnis der Schnittfläche zweier Rechtecke zu deren Vereinigungsfläche (auch Coverage genannt) oder durch den Abstand der Suchfenstermittelpunkte. Letztere Definition wurde bei diesem Ausführungsbeispiel gewählt, da so der für die Detektorantwort unkritische Skalierungsfehler vernachlässigt wird.
  • • Für alle Labels wird der Abstand in X- und Y-Richtung zwischen dem Labelsuchfenster und dem am nächsten gelegenen Korrespondenzsuchfenster bestimmt. Es entsteht dabei eine Häufigkeitsverteilung für die X- und Y-Abstände. Ein Histogramm über den Abstand in X- und Y-Richtung ist in der 11 dargestellt.
  • • Nun werden die Radien ex und ey von der Verteilung der Abstände abgeleitet. In dieser Arbeit wurde ex = 2σ x und ey = 2σ y gewählt. Der nächste Schritt nach der Definition des Korrespondenzraumes für ein Suchfenster ist die Suchraumabtastung. Wie bei der Einzelstrom-Unterabtastung soll auch hier die Hypothesenzahl bei möglichst geringen Einbußen bei der Detektionsleistung minimiert werden.
In the 10 the relaxation of the correspondence condition is shown. The positions of the correlating search windows are not limited to one route only. You can now lie within an elliptical area around this distance. The NIR image shows only the center points of the search windows. In relation to this correspondence error, data labeled with the radii are used. The radii of the elliptical tolerance range are determined as follows:
  • • For each multistrom label, the search windows in both streams are determined.
  • • All possible correspondence search windows in the second stream are calculated for the respective search window in the first stream. In this case, a non-relaxed correspondence condition is used.
  • • The correspondence search window that comes closest to the label search window in the second stream is used for error determination. The proximity of two search windows can be defined here either by the overlap, in particular by the ratio of the intersection of two rectangles to their union surface (also called coverage) or by the spacing of the search window center points. The latter definition was chosen in this embodiment, since this neglects the scaling error that is uncritical for the detector response.
  • • For all labels, the distance in the X and Y directions is determined between the label search window and the closest correspondence search window. This results in a frequency distribution for the X and Y distances. A histogram of the distance in the X and Y directions is in the 11 shown.
  • • Now the radii e x and e y are derived from the distribution of the distances. In this work e x = 2 σ x and e y = 2 σ y were chosen. The next step after defining the correspondence space for a search window is the search space scan. As with single-stream subsampling, the number of hypotheses should also be minimized with as little loss as possible in the detection performance.

11 zeigt den Korrespondenzfehler zwischen Label- und Korrespondenzsuchfenster. Der dargestellte Korrespondenzfehler ist dabei der kleinste Pixelabstand eines Labelsuchfensters zu den Korrespondenzsuchfenstern des korrespondierenden Labels, also zum projizierten Label des anderen Sensorsignalstroms. Bei der dargestellten Messung werden FIR-Labels ins NIR-Bild projiziert und ein Histogramm über die Abstände der Suchfenstermittelpunkte gebildet. 11 shows the correspondence error between label and correspondence search window. The illustrated correspondence error is the smallest pixel distance of a label search window to the correspondent search windows of the corresponding label, so the projected label of the other sensor signal stream. In the illustrated measurement, FIR labels are projected into the NIR image and a histogram is formed over the distances of the search window centers.

Das Verfahren für die Suchraumabtastung läuft folgendermaßen ab: In beiden Strömen werden mit dem Einzelstrom-Hypothesengenerator Einzelstrom-Hypothesen, also Suchfenster gestreut. Es müssen dabei die entstehenden Skalierungsstufen aufeinander abgestimmt werden, wobei im ersten Strom die Skalierungen mit dem Hypothesengenerator bestimmt werden. Für jede dieser Skalierungsstufen wird sodann der Korrespondenzraum eines prototypischen Suchfensters bestimmt. Die Skalierungen des zweiten Stromes ergeben sich aus den Skalierungen der Korrespondenzräume aller prototypischen Suchfenster. Dadurch entsteht in beiden Strömen die gleiche Anzahl an Skalierungsstufen. Nun werden Suchfensterpaare gebildet, wodurch die Multistrom-Hypothesen entstehen. Es kann anschließend einer der beiden Ströme gewählt werden, um für jedes Suchfenster den jeweiligen Korrespondenzbereich im anderen Strom zu bestimmen. Alle Suchfenster des zweiten Stromes, welche die richtige Skalierung aufweisen, die innerhalb dieses Bereiches liegen, werden zusammen mit dem festen Suchfenster des ersten Stromes zur Paarbildung herangezogen, dies wird anhand der 12 verdeutlicht. Dabei zeigt die 12 die entstehenden Multistrom-Hypothesen. Es sind hierbei drei Suchfenster im FIR-Bild und ihre Korrespondenzbereiche im NIR-Bild eingezeichnet. Mit den von Einzelstrom-hypothesengeneratoren gestreuten Suchfenstern werden Paare gebildet. Eine Multistrom-Hypothese entspricht dabei einem Suchfensterpaar.The procedure for the search space sampling proceeds as follows: In both streams, single-stream hypotheses, ie search windows, are scattered with the single-stream hypothesis generator. In this case, the resulting scaling stages must be matched to one another, wherein in the first stream the scalings are determined by the hypothesis generator. For each of these scaling levels, the correspondence space of a prototypical search window is then determined. The scaling of the second stream results from the scaling of the correspondence spaces of all prototypical search windows. This creates the same number of scaling levels in both streams. Now, search window pairs are formed, resulting in the multi-stream hypotheses. One of the two streams can then be selected in order to determine the respective correspondence area in the other stream for each search window. All search windows of the second stream, which have the correct scaling, which are within this range, become together with the fixed search window of the first stream used for pairing, this is based on the 12 clarified. It shows the 12 the resulting multistrom hypotheses. There are three search windows in the FIR image and their correspondence areas in the NIR image. Couples are formed with the search windows scattered by single-stream hypothesis generators. A multi-stream hypothesis corresponds to a search window pair.

Wählt man für die intern verwendeten Einzelstrom-Hpothesengeneratoren Positions- und Skalierungsschrittweiten von 5% der Suchfensterhöhe, so ergeben sich im NIR-Bild ca. 400.000 Einzelstrom-Hypothesen, im FIR-Bild ca. 50.000. Es ergeben sich dabei jedoch ca. 1,2 Millionen Multistrom-Hypothesen. Im praktischen Einsatz konnte eine Verarbeitungsgeschwindigkeit mit 2 Bildern pro Sekunde erzielt werden. Um die Echtzeitfähigkeit der Anwendung zu gewährleisten, werden nachfolgend weitere Optimierungen vorgestellt. Zum einen wird ein sogenannter Weaklearner-Cache beschrieben, der die Zahl der notwendigen Merkmalsberechnungen vermindert. Darüber hinaus wird ein Verfahren zur dynamischen Reduktion der Hypothesenmenge vorgestellt, im Folgenden mit Multiraster-Hypothesenbaum bezeichnet. Die dritte Optimierung, welche mit Backtracking bezeichnet wird, reduziert im Falle einer Detektion unnötigen Aufwand in Zusammenhang mit Mehrfachdetektionen.You choose for the Internally used single-current prosthetic generators Position and scale increments of 5% of the search window height, as shown In the NIR picture about 400,000 single-stream hypotheses, in the FIR image about 50,000. However, there are about 1.2 million multistrom hypotheses. In practical use could process at 2 frames per second be achieved. To the real-time capability to ensure the application Further optimizations will be presented below. For one thing a so-called Weaklearner cache described the number of necessary feature calculations reduced. In addition, a procedure for the dynamic reduction of the hypothesis set, below denoted by multiraster hypothesis tree. The third optimization, which is called backtracking, reduced in the case of a Detection unnecessary Effort in connection with multiple detections.

Das Evaluieren von mehreren Multistrom-Hypothesen, die ein Suchfenster gemeinsam haben, führt dazu, dass Weaklearner mehrmals auf den gleichen Daten berechnet werden. Zur Vermeidung aller redundanten Berechnungen wird nun ein Cachingverfahren eingesetzt. Dabei wird für jedes Suchfenster in beiden Strömen und für jeden Stronglearner partielle Summen der Stronglearner-Berechnung in Tabellen abgelegt. Ein Stronglearner Hk der Kaskadenstufe k ist definiert durch:

Figure 00350001
mit den Weaklearnern h k / t ∊ {–1, 1} und Hypothese x.Evaluating multiple multi-stream hypotheses that share a search window will cause Weaklearner to be computed multiple times on the same data. To avoid all redundant calculations, a caching method is now used. In this case, partial sums of the Stronglearner calculation are stored in tables for each search window in both streams and for each Stronglearner. A stronglearner H k of the cascade stage k is defined by:
Figure 00350001
with the Weaklearnern hk / t ε {-1, 1} and Hypothesis x.

Sk(x) kann aufgetrennt werden in zwei Summen, die nur Weaklearner mit Merkmalen eines Stromes beinhalten:

Figure 00350002
S k (x) can be separated into two sums, which contain only weapon learners with characteristics of a stream:
Figure 00350002

Falls mehrere Hypothesen xi in einem Strom s das gleiche Suchfenster besitzen, dann ist in jeder Stufe k für den Strom s die Summe Ss(xi) gleich für alle xi. Das Ergebnis wird vorzugsweise zwischengespeichert und mehrmals verwendet. Sofern für eine Stronglearner-Berechnung auf bereits berechnete Werte zurückgegriffen werden kann, reduziert sich der Aufwand in gewinnbringender Weise auf eine Summen- und eine Schwellwertoperation. Was die Größe der Tabellen betrifft, ergeben sich bei diesem Ausführungsbeispiel für insgesamt 500.000 Suchfenster und 25 Kaskadenstufen 12,5 Millionen Einträge. Mit 64Bit-Fließkommazahlen werden 100 MB dabei Speicher benötigt. Für eine Aufwandsabschätzung kann die Zahl der Merkmalsberechnungen sowohl mit als auch ohne Weaklearner-Cache betrachtet werden. Im ersteren Fall ist die Zahl der Hypothesen pro Bild und die Anzahl aller Merkmale ausschlaggebend. Die Zahl der Hypothesen kann durch die Anzahl der Suchfenster Rs in den Strömen s abgeschätzt werden mit O(R1·R2). Der in der O-Notation versteckte Faktor ist hier allerdings sehr klein, da der Korrespondenzbereich klein gegenüber der gesamten Bildfläche ist. Die Zahl der berechneten Merkmale ist dann im schlechtesten Fall O(R1·R2·(M1 + M2)) wobei Ms die Zahl der Merkmale in jedem Strom s ist. Im zweiten Fall wird jedes Merkmal in jedem Suchfenster höchstens einmal pro Bild berechnet. Somit ist die Zahl der berechneten Merkmale höchstens O(R1·M1 + R2·M2). Der Aufwand wird im schlechtesten Fall um den Faktor min(R1,R2) reduziert. Eine Komplexitätsanalyse für den durchschnittlichen Fall ist dagegen aufwändiger, da der Zusammenhang zwischen der mittleren Zahl berechneter Merkmale pro Hypothese bzw. Suchfenster im ersten Fall und im zweiten Fall nicht linear ist.If several hypotheses x i in a stream s have the same search window, then in each stage k for the stream s the sum S s (x i ) is the same for all x i . The result is preferably buffered and used several times. If it is possible to resort to already calculated values for a Stronglearner calculation, the effort is reduced in a profitable manner to a sum operation and a threshold operation. As far as the size of the tables is concerned, in this exemplary embodiment 12.5 million entries result for a total of 500,000 search windows and 25 cascade stages. 64-bit floating-point numbers require 100 MB of memory. For an effort estimate, the number of feature calculations can be considered both with and without a Weaklearner cache. In the former case, the number of hypotheses per image and the number of all features are decisive. The number of hypotheses can be estimated by the number of search windows R s in the streams s with O (R1 * R2). However, the factor hidden in the O-notation is very small here, since the correspondence area is small compared to the entire image area. The number of calculated features is then in the worst case O (R1 * R2 * (M1 + M2)) where Ms is the number of features in each stream s. In the second case, each feature in each search window is calculated at most once per image. Thus, the number of calculated features is at most O (R1 * M1 + R2 * M2). In the worst case, the effort is reduced by the factor min (R1, R2). A complexity analysis for the average case, however, is more complex because the relationship between the average number of calculated features per hypothesis or search window in the first case and in the second case is not linear.

Es folgen Ausführungen zum Multiraster-Hypothesenbaum. Der Suchraum des Multistrom-Detektors wurde bei diesem Beispiel mit zwei Einzelstrom-Hypothesengeneratoren und einer relaxierten Korrespondenzbeziehung erfasst. Hierbei ist es jedoch schwierig eine optimale Parametrisierung zu finden, speziell das Finden der geeigneten Abtast-Schrittweiten. Sie haben zum einen großen Einfluss auf die Detektionsleistung und zum anderen auf den entstehenden Rechenaufwand. Für die Einzelstrom-Detektoren konnten bei einem praktischen Versuch akzeptable Kompromisse gefunden werden, die im FIR-Fall wegen der geringeren Bildauflösung eine Echtzeitfähigkeit gewährleisten konnten, im NIR-Fall war dies mit der eingesetzten Hardware allerdings nicht möglich. Die Leistung des verwendeten Versuchsrechners war auch beim Einsatz eines Fusionsdetektors mit Weaklearner-Cache nicht ausreichend und führte in komplexen Szenen zu längeren Reaktionszeiten. Diese Probleme lassen sich aber natürlich mit leistungsfähigerer Hardware lösen.Below are comments on the multiraster hypothesis tree. The search space of the multistrom detector was detected in this example with two single-stream hypothesis generators and a relaxed correspondence relationship. In this case, however, it is difficult to find an optimal parameterization, especially the finding of the appropriate sampling step sizes. On the one hand, they have a major influence on the detection performance and, on the other hand, on the resulting computational effort. For the single-stream detectors could at a prak In the FIR case acceptable compromises could be found in the FIR case because of the lower image resolution, but in the NIR case this was not possible with the hardware used. The performance of the experimental computer used was also insufficient when using a fusion detector with Weaklearner cache and resulted in longer response times in complex scenes. Of course, these problems can be solved with more powerful hardware.

Beim praktischen Einsatz wurden verschiedene Parametrisierungen des Hypothesengenerators und des Detektors getestet. Mehrere Suchrasterdichten und verschiedene Stufenbeschränkungen wurden dabei evaluiert. Es hat sich gezeigt, dass auch bei sehr grober Abtastung jeder zu detektierende Fußgänger bereits mit den ersten Stufen des Detektors erkannt wird. Hierbei wurden die hinteren Kaskadenstufen sukzessive abgeschaltet, was eine hohe Falschalarmrate zur Folge hat. Die beim praktischen Einsatz aufgezeichneten Messwerte sind in der 13 dargestellt. Die Zahl der Hypothesen waren beginnend mit der feinsten Rasterdichte: ca. 1.200.000, 200.000, 7.000 und 2.000.In practical use, various parameterizations of the hypothesis generator and the detector were tested. Several search grid densities and different step restrictions were evaluated. It has been found that, even with very coarse scanning, every pedestrian to be detected is already recognized with the first stages of the detector. In this case, the rear cascade stages were switched off successively, resulting in a high false alarm rate. The measured values recorded during practical use are in the 13 shown. The number of hypotheses were starting with the finest grid density: approximately 1,200,000, 200,000, 7,000 and 2,000.

Die 13 zeigt dabei den Vergleich der Detektionsraten verschiedener Rasterweiten, wobei vier verschiedene Hypothesenrasterdichten verglichen werden. Für jede Rasterweite ist die Detektionsrate eines Fusionsdetektors über die Zahl der verwendeten Stufen aufgetragen. Die Detektionsrate ist definiert durch die Zahl der gefundenen Fußgänger dividiert durch die Zahl aller Fußgänger. Der Grund für das aufgetretene Phänomen ist folgende Eigenschaft des Detektors: Die Detektorantwort, also die erreichte Kaskadenstufe, ist maximal für eine Hypothese, welche exakt auf dem Fußgänger positioniert ist. Schiebt man die Hypothese nun schrittweise vom Fußgänger weg, fällt das Detektorergebnis nicht abrupt auf null ab, sondern es existiert ein Bereich, indem das Detektorergebnis stark variiert und tendenziell absinkt. Dieses Verhalten des Kaskadendetektors wird im Folgenden als charakteristische Detektorantwort bezeichnet. Ein Experiment, bei dem ein Bild in Pixelschritten abgetastet wird, ist in der 14 visualisiert. Dabei werden ein Multistrom-Detektor und Hypothesen mit fixer Skalierung verwendet. Man kann den Bereich, für den die Detektorantwort verzögert abfällt, gut erkennen. Weiterhin hat sich gezeigt, dass der Detektor ähnliche Charakteristiken bei einem Experiment mit fixer Position und variierender Skalierung aufweist. Damit ist die Detektionsleistung des verkürzten Detektors angewandt auf ein grobes Hypothesenraster zu erklären, denn die "Trefferfläche" für einen Fußgänger vergrößert sich für niedrigere Stufen.The 13 shows the comparison of the detection rates of different screen widths, whereby four different hypothesis grid densities are compared. For each screen ruling, the detection rate of a fusion detector is plotted against the number of stages used. The detection rate is defined by the number of pedestrians found divided by the number of pedestrians. The reason for the phenomenon that has occurred is the following property of the detector: The detector response, ie the cascade stage reached, is at most a hypothesis which is positioned exactly on the pedestrian. If one pushes the hypothesis step by step away from the pedestrian, the detector result does not drop abruptly to zero, but there is an area in which the detector result varies greatly and tends to decrease. This behavior of the cascade detector is referred to below as a characteristic detector response. An experiment in which an image is scanned in pixel steps is in the 14 visualized. It uses a multistrom detector and fixed scale hypotheses. One can easily see the area for which the detector response decays. Furthermore, it has been found that the detector has similar characteristics in a fixed position, varying scale experiment. Thus, the detection performance of the shortened detector applied to a rough hypothesis grid to explain, because the "target area" for a pedestrian increases for lower levels.

In der 14 wird die Detektorantwort in Abhängigkeit der erreichten Detektionsstufe gezeigt. Dabei wird ein Multistrom-Detektor auf eine Hypothesenmenge in einer Skalierung mit pixelgenauem Raster angewandt. Die letzte erreichte Kaskadenstufe ist für jede Hypothese an ihrem Mittelpunkt eingezeichnet. Während des Trainings werden keine zu einem Label leicht versetzten Trainingsbeispiele verwendet. Es werden ausschließlich exakte Positivbeispiele verwendet sowie Negativbeispiele, welche einen großen Abstand zu jedem Positivbeispiel aufweisen. Somit ist das Verhalten des Detektors undefiniert bei Hypothesen, die zu einem Objekt leicht versetzt sind. Es wird daher für jeden Detektor experimentell die charakteristische Detektorantwort untersucht. Die zentrale Idee zur Reduktion der Hypothesenzahl ist dabei eine Grob-Zu-Fein-Suche, wobei jedes Bild im ersten Schritt mit einer grob aufgelösten Hypothesenmenge abgesucht wird. In Abhängigkeit des Detektorergebnisses werden nun weitere Hypothesen mit höherer Dichte im Bild gestreut. Außerdem wird die lokale Nachbarschaft derjenigen Hypothesen durchsucht, die ein Objekt in ihrer Nähe vermuten lassen. Durch das oben beschriebene Verhalten des Detektors, kann die erreichte Stufenzahl als Kriterium für die Verfeinerung der Suche genommen werden. Nach dem gleichen Prinzip kann sodann erneut die lokale Nachbarschaft der neuen Hypothesen durchsucht werden, bis das feinste Hypothesenraster erreicht ist. Für jeden Verfeinerungsschritt wird ein Schwellwert verwendet, mit dem die erreichte Kaskadenstufe jeder Hypothese verglichen wird.In the 14 the detector response is shown as a function of the detection level achieved. In this case, a multistrom detector is applied to a set of hypotheses in a scaling with pixel-precise grid. The last cascade level reached is plotted for each hypothesis at its midpoint. During training, no training examples slightly offset to a label are used. Only exact positive examples are used as well as negative examples, which have a large distance to each positive example. Thus, the behavior of the detector is undefined in hypotheses that are slightly offset from an object. Therefore, the characteristic detector response is experimentally investigated for each detector. The central idea for reducing the number of hypotheses is a coarse-to-fine search, whereby each image is searched in the first step with a roughly resolved set of hypotheses. Depending on the detector result, further hypotheses with higher density are scattered in the image. In addition, the local neighborhood is searched for hypotheses that suggest an object in its vicinity. By the above described behavior of the detector, the achieved number of stages can be taken as criteria for the refinement of the search. Following the same principle, the local neighborhood of the new hypotheses can then be searched again until the finest hypothesis grid is reached. For each refinement step, a threshold is used to compare the achieved cascade level of each hypothesis.

15 zeigt eine Grob-Zu-Fein-Suche im eindimensionalen Fall. Hierfür wurde eine Bildzeile aus der in 14 gezeigten Bildaufnahme herangezogen, welche in der Form einer Funktion in der 15 dargestellt ist. Von links nach rechts sind die Schritte des Suchverfahrens zu sehen. Senkrecht sind die Hypothesenresultate und waagerecht die Schwellwerte zur lokalen Verfeinerung eingezeichnet. Für die Schwellwertbestimmung kann das eingangs beschriebene Experiment verwendet werden. Die Detektionsrate jeder Rasterdichte ist für die ersten Stufen des Detektors fast identisch. Als Schwellwert wird die maximale Stufe gewählt, für die die betroffene Rasterdichte immer noch beinahe die gleiche Detektionsrate hat wie die maximal erreichbare. Für die Schwellwertstufe k einer Rasterdichte L wird eine Detektionsrate D L / k gefordert, sodass

Figure 00390001
15 shows a coarse-to-fine search in the one-dimensional case. For this purpose, a picture line from the in 14 shown image recording, which in the form of a function in the 15 is shown. From left to right you can see the steps of the search process. The hypothesis results are horizontal and the thresholds for local refinement are shown horizontally. For the threshold determination, the experiment described above can be used. The detection rate of each screen density is almost identical for the first stages of the detector. The threshold value is the maximum level for which the affected screen density still has almost the same detection rate as the maximum achievable. For the threshold level k of a grid density L, a detection rate DL / k is required, so
Figure 00390001

D H / k kennzeichnet hierbei die Detektionsrate der feinsten Rasterdichte H in Stufe k. Wenn n die Zahl der Verfeinerungen ist, dann ergibt sich für die letzte Stufe K des Detektors eine Detektionsrate DK = αn·DHK DH / k denotes the detection rate of the finest screen density H in step k. If n is the number of Refinements, then results for the last stage K of the detector, a detection rate D K = α n · D H K

Für α sind in diesem Beispiel hauptsächlich Werte zwischen 0,98 und 0,999 geeignet.For α are in this example mainly Values between 0.98 and 0.999 are suitable.

Bei der Definition der Nachbarschaft wird der Hypothesenraum betrachtet. Der Hypothesenraum ist nun nicht eindimensional sondern im Falle des Einzelstrom-Detektors dreidimensional oder sechsdimensional beim Fusionsdetektor. Das Problem einer Schrittweisen Verfeinerung in allen Dimensionen wird mit dem Hypothesengenerator gelöst. Zur Definition der Nachbarschaft gibt es dabei zwei Möglichkeiten, von denen in diesem Ausführungsbeispiel die zweite verwendet wird. Zum einen kann ein Minimalwert für die Überdeckung (Coverage) zweier benachbarter Suchfenster festgelegt werden. In diesem Fall ist jedoch nicht klar, wie der Minimalwert zu wählen ist, da in den verfeinerten Hypothesenmengen Lücken entstehen können, also Bereiche, die keiner Hypothese der groben Hypothesenmenge nahe genug sind. Es müssen daher verschiedene Schwellwerte für jede Rasterdichte festgelegt werden. Zum anderen kann die Nachbarschaft mit einer modifizierten Schachbrett-Distanz definiert werden. Damit werden die erwähnten Lücken vermieden und es kann ein einheitlicher Schwellwert für alle Rasterdichten definiert werden. Die Schachbrett-Distanz ist definiert durch

Figure 00400001
In defining the neighborhood, the hypothesis space is considered. The hypothesis space is now not one-dimensional but in the case of the single-stream detector three-dimensional or six-dimensional in the fusion detector. The problem of gradual refinement in all dimensions is solved with the hypothesis generator. There are two possibilities for defining the neighborhood, of which the second is used in this embodiment. On the one hand, a minimum value for the coverage of two adjacent search windows can be defined. In this case, however, it is not clear how to choose the minimum value, since gaps can arise in the refined sets of hypotheses, ie areas that are not close enough to any hypothesis of the coarse hypothesis set. Therefore, different thresholds must be set for each grid density. On the other hand, the neighborhood can be defined with a modified checkerboard distance. Thus, the mentioned gaps are avoided and it can be defined a uniform threshold for all screen densities. The chessboard distance is defined by
Figure 00400001

Die Rasterdichte für einen Strom ist durch rx, ry, rh R definiert. Die Rasterabstände sind für eine Suchfensterhöhe h dann in X-Richtung rx·h und in Y-Richtung ry·h. Für eine Suchfensterhöhe h1 ist die nächst größere Suchfensterhöhe h2 = h1·(1 + rh). Das Nachbarschaftskriterium für ein Suchfenster mit Position s1 ∊ R2 und Suchfensterhöhe h1 zu einem Suchfenster s2 ∊ R2 einer feineren Hypothesenmenge mit Höhe h2 ist mit einem Skalar δ definiert:

Figure 00410001
The array density of a current is defined by r x, r y, r h ε R. The grid spacings are for a search window height h then in the x direction r x · h and in the y direction r y · h. For a search window height h 1 , the next largest search window height is h 2 = h 1 * (1 + rh). The neighborhood criterion for a search window with position s 1 ε R 2 and search window height h 1 to a search window s 2 ε R 2 of a finer hypothesis set with height h 2 is defined with a scalar δ:
Figure 00410001

Die entstehenden Intervallgrenzen sind in der 16 visualisiert. Im Multistrom-Fall gilt in jedem Strom ein dreidimensionales Nachbarschaftskriterium. Für benachbarte Multistrom-Hypothesen muss die Nachbarschaftsbedingung in beiden Strömen erfüllt sein. Wählt man rx = ry und δ = 0,5, so sind alle Nachbarschaftsbereiche bis auf die Ränder disjunkt. Sofern die Schrittweiten rx und ry für die Verfeinerungs-Hypothesenmengen sukzessive halbiert werden und die hinzukommenden Hypothesen genau auf die Grenzen der Nachbarschaftsbereiche fallen, ist dieser Wert für δ sinnvoll, da die feineren Hypothesen mit allen angrenzenden gröberen Hypothesen verknüpft werden. Dies gilt jedoch nicht, falls die verfeinerten Hypothesenmengen beliebige Rasterabstände aufweisen. Dann muss durch Wahl von δ > 0,5 erreicht werden, dass sich die Nachbarschaftsbereiche von benachbarten Hypothesen der groben Menge überlappen und die Hypothesen des feinen Rasters mehreren Hypothesen des groben Rasters zugeordnet werden. Der erforderliche Wert für δ muss durch Experimente ermittelt werden, d.h. er muss an die charakteristische Detektorantwort angepasst werden.The resulting interval limits are in the 16 visualized. In the multi-stream case, there is a three-dimensional neighborhood criterion in each stream. For adjacent multi-stream hypotheses, the neighborhood condition in both streams must be met. If you choose r x = r y and δ = 0.5, then all neighborhoods are disjoint except for the edges. If the step sizes r x and r y for the refinement hypothesis sets are successively halved and the additional hypotheses fall precisely on the boundaries of the neighborhood areas, this value makes sense for δ, since the finer hypotheses are linked to all adjacent coarser hypotheses. However, this does not apply if the refined sets of hypotheses have any grid spacing. Then, by choosing δ> 0.5, it must be achieved that the neighborhoods of adjacent coarse set hypotheses overlap and the fine-grid hypotheses are assigned to multiple coarse-grid hypotheses. The required value for δ must be determined by experiments, ie it must be adapted to the characteristic detector response.

In der 16 wird die Nachbarschaftsdefinition gezeigt: Die Nachbarschaft ist für drei der Hypothesen gleicher Skalierungsstufe eingezeichnet, außerdem sind rechts drei verschiedene Skalierungen und deren resultierende Skalierungs-Nachbarschaft abgebildet. Für δ wurde hierbei 0,75 gewählt.In the 16 the neighborhood definition is shown: The neighborhood is plotted for three of the hypotheses of the same scaling level, and on the right three different scales and their resulting scaling neighborhood are shown. For δ, 0.75 was chosen here.

Die Erzeugung der verfeinerten Hypothesen während der Anwendung wäre zu zeitintensiv und kann genauso gut als Vorverarbeitungsschritt erfolgen. Das Generieren aller verfeinerten Hypothesenmengen erfolgt mittels des Hypothesengenerators. Es wird zunächst die Hypothesenmenge für jede Verfeinerungsstufe generiert. Anschließend werden die Hypothesen mit dem Nachbarschaftskriterium verknüpft, wobei Jede Hypothese mit jeder Hypothese der nächsten feineren Hypothesenmenge verglichen wird. Sind diese sich nahe, werden sie verknüpft. Es entsteht hierbei eine baumartige Struktur, deren Wurzeln den Hypothesen der gröbsten Stufe entsprechen. In der 17 stellen die Kanten die berechneten Nachbarschaftsbeziehungen dar. Da mit der Generierung des Hypothesenbaumes ein gewisser Suchaufwand verbunden ist, werden die dafür erforderlichen Berechnungen vorzugsweise über ein separates Tool realisiert und in Form einer Datei gespeichert.The generation of the refined hypotheses during the application would be too time consuming and may as well be done as a pre-processing step. The generation of all refined hypothesis sets is done by means of the hypothesis generator. First, the set of hypotheses for each refinement level is generated. Then the hypotheses are linked to the neighborhood criterion, each hypothesis being compared to each hypothesis of the next finer set of hypotheses. If these are close, they are linked. This results in a tree-like structure whose roots correspond to the hypotheses of the coarsest stage. In the 17 Since the edges represent the calculated neighborhood relationships. Since the generation of the hypothesis tree involves a certain search effort, the calculations required for this purpose are preferably realized via a separate tool and stored in the form of a file.

17 zeigt den resultierenden Hypothesenbaum. Der Hypothesenbaum/Suchbaum weist dabei mehrere Wurzeln auf und wird von den Wurzeln aus bis auf die Blattebene abgesucht, sofern das Detektionsergebnis eines Knotens größer als der Schwellwert ist. Bei der Verarbeitung eines Bildes (bzw. Bildpaares beim Multistrom-Detektor) wird der Hypothesenbaum durchlaufen. Beginnend mit der ersten Baumwurzel wird der Baum mit einer Tiefen- oder Breitensuche abgesucht. Die Hypothese der Wurzel wird dabei evaluiert. Solange der entsprechende Schwellwert überschritten ist, wird im Baum abgestiegen und die jeweiligen Kindknoten-Hypothesen untersucht. Dann wird die Suche bei der nächsten Baumwurzel fortgesetzt. Zusammen mit dem nachfolgend beschriebenen Backtracking-Verfahren ist die Tiefensuche am effektivsten. Da Knoten mehrere Vaterknoten aufweisen können, muss darauf geachtet werden, dass jeder Knoten nur einmal untersucht wird. Durch den Einsatz eines Multiraster-Hypothesenbaum resultiert dabei in gewinnbringender Weise eine Reduktion der Hypothesenzahl, welche sich auf die Detektionsleistung auswirkt. 17 shows the resulting hypothesis tree. The hypothesis tree / search tree has several roots and is searched from the roots to the leaf level, if the detection result of a node is greater than the threshold. When processing an image (or image pair in the case of the multi-stream detector), the hypothesis tree is traversed. Beginning with the first tree root, the tree is searched with a depth or breadth first search. The hypothesis of the root is evaluated. As long as the corresponding threshold value is exceeded, the tree is descended and the respective child node hypotheses are examined. Then the search continues at the next tree root. Along with the backtracking method described below, the depth search is most effective. Since nodes can have multiple parent nodes, care must be taken to examine each node only once. The use of a multiraster hypothesis tree results in a profitable way a reduction in the number of hypotheses, which affects the detection performance.

Die Zahl der Mehrfachdetektionen ist beim Multistrom-Detektor und beim FIR-Detektor sehr hoch. Mehrfachdetektionen haben daher großen Einfluss auf die Rechenzeit, da sie die gesamte Kaskade durchlaufen. Es wird daher ein sogenanntes Backtracking-Verfahren eingesetzt. Mit einer Änderung der Suchstrategie kann dabei ein Großteil der Mehrfachdetektionen vermieden werden, wobei im Falle einer Detektion die Suche in dem Hypothesenbaum abgebrochen und bei der nächsten Baumwurzel fortgesetzt wird. Dadurch wird die Hypothesendichte lokal vermindert, sobald ein Objekt gefunden wird. Um keinen systematischen Fehler zu erzeugen, werden alle Kindknoten zufällig permutiert, so dass ihre Reihenfolge nicht mit ihrer Anordnung im Bild korreliert. Wenn die ersten Kind-Hypothesen beispielsweise immer links oben im Nachbarschaftsbereich liegen, so kann die Detektion tendenziell in diese Richtung verschoben werden.The The number of multiple detections is very high for the multi-stream detector and the FIR detector high. Multiple detections therefore have a major influence on the computing time, as they go through the entire cascade. It will therefore be a so-called Backtracking method used. With a change of search strategy can a large part the multiple detections are avoided, wherein in the case of detection the search in the hypothesis tree is aborted and at the next tree root will continue. This will reduce the density of hypotheses locally, as soon as an object is found. Not a systematic mistake All child nodes are randomly permuted so that their Order is not correlated with their arrangement in the picture. If the first child hypotheses, for example, always in the upper left corner of the neighborhood lie, the detection tends to shift in that direction become.

Anhand dieses Ausführungsbeispiels wurde somit ausgehend vom Einzelstrom-Hyothesengenerator, durch Modellierung eines relaxierten Korrespondenzbereiches und schließlich durch verschiedene Optimierungen ein Verfahren entwickelt, welches trotz des komplexen Suchraumes der Multistrom-Daten sehr wenig Rechenzeit erfordert. Einen wichtigen Beitrag leistet dabei der Multiraster-Hypothesenbaum.Based this embodiment was thus starting from the single-stream Hyothesengenerator, by Modeling a relaxed correspondence area and finally by Various optimizations developed a procedure which, despite the complex search space of the multistrom data has very little computation time requires. An important contribution is made by the multiraster hypothesis tree.

Die Verwendung des Multiraster-Hypothesenbaums ist nicht nur im Rahmen der Multisensorfusion von großem Vorteil, sondern eignet sich in besonderer Weise auch zum Zusammenspiel mit Kaskadenklassifikatoren im Allgemeinen und führt hierbei zu signifikant besseren Klassifikationsergebnissen.The Use of the Multiraster Hypothesis tree is not just in the frame the multisensor fusion of great Advantage, but is particularly suitable for interaction with cascade classifiers in general and leads to significant better classification results.

Claims (18)

Verfahren zur multisensoriellen Objekterkennung, wobei Sensorinformationen aus wenigstens zwei unterschiedlichen Sensorsignalströmen mit unterschiedlichen Sensorsignaleigenschaften zur gemeinsamen Auswertung herangezogen werden, wobei die wenigstens zwei Sensorsignalströme zur Auswertung nicht aneinander angepasst und/oder aufeinander abgebildet werden, wobei hierbei in jedem der wenigstens zwei Sensorsignalströme Objekthypothesen generiert werden, wobei auf der Grundlage dieser Objekthypothesen Merkmale für wenigstens einen Klassifikator generiert werden und wobei die Objekthypothesen mittels dem wenigstens einen Klassifikator bewertet und einer oder mehreren Klassen zugeordnet werden, wobei wenigstens zwei Klassen definiert sind und einer der beiden Klassen Objekte zuzuordnen sind.Method for multisensor object recognition, wherein sensor information from at least two different Sensor signal streams with different sensor signal properties for common evaluation be used, wherein the at least two sensor signal streams for evaluation not adapted to each other and / or mapped to each other, in which case in each of the at least two sensor signal streams object hypotheses generated, based on these object hypotheses characteristics for at least a classifier are generated and where the object hypotheses evaluated by the at least one classifier and one or be assigned to several classes, with at least two classes are defined and objects are assigned to one of the two classes. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Objekthypothesen eindeutig einer Klasse zugeordnet werden.Method according to claim 1, characterized in that that the object hypotheses are uniquely assigned to a class. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Objekthypothesen mehreren Klassen zugeordnet werden, wobei die jeweilige Zuordnung mit einer Wahrscheinlichkeit belegt ist.Method according to claim 1, characterized in that that the object hypotheses are assigned to several classes, where the respective assignment is assigned a probability. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Objekthypothesen unabhängig voneinander in jedem Sensorsignalstrom einzeln generiert werden, wobei die Objekthypothesen unterschiedlicher Sensorsignalströme sodann über Zuordnungsvorschriften einander zuordenbar sind.Method according to one of the preceding claims, characterized characterized in that the object hypotheses independently in each sensor signal current be generated individually, the object hypotheses of different Sensor signal streams then over Assignment rules are assignable to each other. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass Objekthypothesen in einem Sensorsignalstrom (Primärstrom) generiert werden und Objekthypothesen des Primärstroms in andere Sensorsignalströme (Sekundärströme) projiziert werden, wobei eine Objekthypothese des Primärstroms eine oder mehrere Objekthypothesen im Sekundärstrom erzeugt.Method according to one of claims 1 to 3, characterized that object hypotheses in a sensor signal current (primary current) are generated and object hypotheses of the primary current in other sensor signal currents (secondary currents) projected where an object hypothesis of the primary stream is one or more object hypotheses in the secondary current generated. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Projektion von Objekthypothesen des Primärstroms in einen Sekundärstrom auf den verwendeten Sensormodellen und/oder der Positionen von Suchfenstern innerhalb des Primärstroms bzw. auf der Epipolargeometrie basiert.Method according to claim 5, characterized in that that the projection of object hypotheses of the primary stream into a secondary stream on the sensor models used and / or the positions of search windows within the primary stream or based on the Epipolargeometrie. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass Objekthypothesen durch deren Objekttyp, Objektposition, Objektausdehnung, Objektorientierung, Objektbewegungsparameter wie Bewegungsrichtung und Geschwindigkeit, Objektgefahrenpotential oder einer beliebigen Kombination daraus beschrieben werden.Method according to one of the preceding claims, characterized in that object hypotheses are described by their object type, object position, object extent, object orientation, object motion parameters such as direction of motion and velocity, object danger potential, or any combination thereof. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass Objekthypothesen in einem physikalischen Suchraum zufällig gestreut oder in einem Raster erzeugt werden oder durch ein physikalisches Modell erzeugt werden.Method according to one of the preceding claims, characterized characterized in that object hypotheses in a physical search space fortuitously scattered or generated in a grid or by a physical Model generated. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Suchraum durch externe Vorgaben wie Öffnungswinkel, Entfernungsbereiche, statistische Kenngrößen, die lokal im Bild gewonnen werden, und/oder Messungen anderer Sensoren adaptiv eingeschränkt wird.Method according to claim 8, characterized in that that the search space is determined by external specifications such as opening angle, distance ranges, statistical parameters that obtained locally in the image, and / or measurements of other sensors adaptively restricted becomes. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die unterschiedlichen Sensorsignaleigenschaften in den Sensorsignalströmen auf unterschiedlichen Positionen und/oder Orientierungen und/oder Sensorgrößen der verwendeten Sensoren basieren.Method according to one of the preceding claims, characterized characterized in that the different sensor signal characteristics in the sensor signal currents in different positions and / or orientations and / or Sensor sizes of used sensors are based. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass jede Objekthypothese einzeln für sich klassifiziert wird und die Ergebnisse der einzelnen Klassifikationen kombiniert werden, wobei wenigstens ein Klassifikator vorgesehen ist.Method according to claim 10, characterized in that that each object hypothesis is classified individually for itself and the results of each classifications are combined, wherein at least one classifier is provided. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass in dem wenigstens einen Klassifikator Merkmale von Objekthypothesen unterschiedlicher Sensorsignalströme gemeinsam bewertet und zu einem Klassifikationsergebnis zusammengefasst werden.Method according to claim 10, characterized in that in that in the at least one classifier features of object hypotheses evaluated together and to different sensor signal currents summarized a classification result. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Raster, in welchem die Objekthypothesen erzeugt werden, in Abhängigkeit des Klassifikationsergebnisses adaptiv angepasst wird.Method according to one of the preceding claims, characterized characterized in that the grid in which the object hypotheses be generated, depending the classification result is adapted adaptively. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass das Raster, in welchem die Objekthypothesen erzeugt werden, in Abhängigkeit des Klassifikationsergebnisses eines vorangegangenen Zeitschrittes adaptiv angepasst wird.Method according to one of claims 1 to 12, characterized that the grid in which the object hypotheses are generated dependent on the classification result of a previous time step adaptively adapted. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass das Auswerteverfahren, mittels welchem die Objekthypothesen bewertet werden, in Abhängigkeit von wenigstens einer vorangegangenen Bewertung automatisch angepasst wird.Method according to one of the preceding claims, characterized in that the evaluation method by means of which the Object hypotheses are evaluated, depending on at least one automatically adjusted to the previous rating. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass mindestens zwei unterschiedliche Sensorsignalströme zeitversetzt verwendet werden oder dass ein einzelner Sensorsignalstrom gemeinsam mit wenigstens einer zeitversetzten Version desselben verwendet wird.Method according to one of the preceding claims, characterized characterized in that at least two different sensor signal currents offset in time be used or that a single sensor signal current in common used with at least one time-shifted version of the same becomes. Verwendung des Verfahrens nach einem der vorstehenden Ansprüche zur Verfolgung von erkannten Objekten.Use of the method according to one of the preceding claims for tracking detected objects. Verwendung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 16 zur Umgebungserfassung und/oder Objektverfolgung bei einem Straßenfahrzeug.Use of the method according to one or more the claims 1 to 16 for environmental detection and / or object tracking at a Road vehicle.
DE102007013664A 2006-03-22 2007-03-19 Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient Withdrawn DE102007013664A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007013664A DE102007013664A1 (en) 2006-03-22 2007-03-19 Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102006013597 2006-03-22
DE102006013597.0 2006-03-22
DE102007013664A DE102007013664A1 (en) 2006-03-22 2007-03-19 Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient

Publications (1)

Publication Number Publication Date
DE102007013664A1 true DE102007013664A1 (en) 2007-09-27

Family

ID=38438589

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007013664A Withdrawn DE102007013664A1 (en) 2006-03-22 2007-03-19 Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient

Country Status (1)

Country Link
DE (1) DE102007013664A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007050568A1 (en) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Method and device for object recognition in an image
EP2056235A1 (en) * 2007-11-02 2009-05-06 Honda Research Institute Europe GmbH Driving path identification via online adaptation of the driving path model
DE102009034026A1 (en) * 2009-07-21 2011-01-27 Bayerische Motoren Werke Aktiengesellschaft Method for recognizing object in environment of sensor system of vehicle, involves realizing object recognition based on determined candidates and part of environment detected by complementary metal oxide semiconductor-camera
EP2254075A3 (en) * 2009-05-18 2014-06-11 EADS Deutschland GmbH Method for recognising objects
DE102017006155A1 (en) 2017-06-29 2017-12-21 Daimler Ag Method for operating a sensor system of a vehicle
CN107886169A (en) * 2017-11-14 2018-04-06 华南理工大学 A kind of multiple dimensioned convolution kernel method that confrontation network model is generated based on text image
DE102018209306A1 (en) * 2018-06-12 2019-12-12 Conti Temic Microelectronic Gmbh Method for the detection of beacons
DE102019206231A1 (en) * 2019-04-30 2020-11-05 Zf Friedrichshafen Ag Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line
DE102021002685A1 (en) 2021-05-21 2021-08-12 Daimler Ag Method for the sensor fusion of at least two sensors and a vehicle
DE102020109757A1 (en) 2020-04-08 2021-10-14 Bayerische Motoren Werke Aktiengesellschaft System for recognizing the surroundings of a vehicle
DE102009014437B4 (en) 2008-03-26 2023-01-19 Continental Autonomous Mobility Germany GmbH Object Recognition System and Method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007050568A1 (en) * 2007-08-04 2009-02-05 Continental Teves Ag & Co. Ohg Method and device for object recognition in an image
EP2056235A1 (en) * 2007-11-02 2009-05-06 Honda Research Institute Europe GmbH Driving path identification via online adaptation of the driving path model
DE102009014437B4 (en) 2008-03-26 2023-01-19 Continental Autonomous Mobility Germany GmbH Object Recognition System and Method
EP2254075A3 (en) * 2009-05-18 2014-06-11 EADS Deutschland GmbH Method for recognising objects
DE102009034026A1 (en) * 2009-07-21 2011-01-27 Bayerische Motoren Werke Aktiengesellschaft Method for recognizing object in environment of sensor system of vehicle, involves realizing object recognition based on determined candidates and part of environment detected by complementary metal oxide semiconductor-camera
DE102017006155A1 (en) 2017-06-29 2017-12-21 Daimler Ag Method for operating a sensor system of a vehicle
CN107886169A (en) * 2017-11-14 2018-04-06 华南理工大学 A kind of multiple dimensioned convolution kernel method that confrontation network model is generated based on text image
DE102018209306A1 (en) * 2018-06-12 2019-12-12 Conti Temic Microelectronic Gmbh Method for the detection of beacons
WO2019238177A1 (en) * 2018-06-12 2019-12-19 Conti Temic Microelectronic Gmbh Method for detecting identification lamps
US12014632B2 (en) 2018-06-12 2024-06-18 Conti Temic Microelectronic Gmbh Method for detecting beacons
DE102019206231A1 (en) * 2019-04-30 2020-11-05 Zf Friedrichshafen Ag Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line
DE102020109757A1 (en) 2020-04-08 2021-10-14 Bayerische Motoren Werke Aktiengesellschaft System for recognizing the surroundings of a vehicle
DE102021002685A1 (en) 2021-05-21 2021-08-12 Daimler Ag Method for the sensor fusion of at least two sensors and a vehicle

Similar Documents

Publication Publication Date Title
WO2007107315A1 (en) Multi-sensorial hypothesis based object detector and object pursuer
DE102007013664A1 (en) Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient
EP1589484B1 (en) Method for detecting and/or tracking objects
DE19636028C1 (en) Stereo image object detection, esp. for road vehicles
DE102007019491B4 (en) Vehicle environment monitoring device, vehicle, vehicle environment monitoring method, and vehicle environment monitoring program
DE112009000949T5 (en) Detection of a free driving path for a vehicle
DE102009048699A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
DE112010004767T5 (en) Point cloud data processing device, point cloud data processing method and point cloud data processing program
DE102009048892A1 (en) Clear traveling path detecting method for vehicle e.g. car, involves generating three-dimensional map of features in view based upon preferential set of matched pairs, and determining clear traveling path based upon features
WO2013029722A2 (en) Method for representing surroundings
DE102021002798A1 (en) Process for camera-based environment detection
DE102018212655A1 (en) Detection of the intention to move a pedestrian from camera images
DE102021113651B3 (en) System for sensor data fusion for environmental perception
DE102019133642A1 (en) DIGITAL IMAGING SYSTEM INCLUDING OPTICAL PLENOPTIC DEVICE AND IMAGE DATA PROCESSING METHOD FOR DETECTING VEHICLE OBSTACLES AND GESTURES
DE102012000459A1 (en) Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation
DE102006039104A1 (en) Method for ranging or detection of stationary objects in surroundings of road vehicle using graphic data, involves testing object hypothesis such as stationary object against object hypothesis such as flat road
DE102018005969A1 (en) Method for operating a driver assistance system with two detection devices
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102008036219A1 (en) Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set
DE102007024641A1 (en) Vehicle surrounding representing method for tracing of e.g. animal, involves determining measuring range based on object hypotheses, commonly analyzing sensor signal flow in ranges and processing flows in unadjusted manner
EP3543901B1 (en) Device and method for robust determination of the position, orientation, identity and selected status information of objects
DE102011017707A1 (en) Method for detecting object e.g. concrete post in vicinity of camera for monitoring rear side region of vehicle, involves reading images captured by cameras after partially illuminating with illumination patterns
DE102008055932A1 (en) Man-made sensor e.g. environment sensor, performance model-based simulation method for car, involves modifying parameters of polygons and reference points, and generating sensor data by environment including parameter-modified polygons
EP3663800B1 (en) Method for detecting objects using a 3d camera
DE102012008780B4 (en) Method and device for detecting at least one road edge and motor vehicle

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

R120 Application withdrawn or ip right abandoned
R120 Application withdrawn or ip right abandoned

Effective date: 20130726