Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Erkennung von Objekten, insbesondere zur Erkennung von Personen im Umfeld eines Fahrzeugs. The invention relates to a method and a corresponding device for detecting objects, in particular for detecting persons in the environment of a vehicle.
Zur Erfassung der Umfeldsituation sind moderne Fahrzeuge mit Kamerasystemen ausgestattet, die Bilddaten bezüglich eines Umfelds der Fahrzeuge erfassen. Objekt-Klassifikatoren können auf die Bilddaten angewendet werden, um Objekte (beispielsweise Personen) vor dem Fahrzeug zu erkennen. Das Erscheinungsbild von Personen in einem Bild ist jedoch nicht konstant, sondern variiert signifikant mit den Beleuchtungsverhältnissen der Umgebung, in der sich eine Person befindet. Aufgrund der abweichenden Erscheinungsbilder sinkt typischerweise die Detektionsgüte der Objekt-Klassifikatoren. To capture the surrounding situation, modern vehicles are equipped with camera systems that record image data relating to an environment of the vehicles. Object classifiers can be applied to the image data to detect objects (such as people) in front of the vehicle. However, the appearance of persons in an image is not constant, but varies significantly with the lighting conditions of the environment in which a person resides. Due to the different appearances, the detection quality of the object classifiers typically decreases.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, die Detektionsgüte von Objekt-Klassifikatoren bei sich verändernden Beleuchtungsverhältnissen zu verbessern. Desweiteren befasst sich das vorliegende Dokument mit der technischen Aufgabe, in präziser Weise die Konfidenz einer Objekterkennung zu ermitteln. Außerdem befasst sich das vorliegende Dokument mit der technischen Aufgabe, in effizienter Weise Objekt-Klassifikatoren mit einer hohen Detektionsgüte bereitzustellen. The present document deals with the technical task of improving the detection quality of object classifiers with changing lighting conditions. Furthermore, the present document deals with the technical task to determine in a precise manner the confidence of an object recognition. In addition, the present document addresses the technical problem of efficiently providing object classifiers with high detection quality.
Ein oder mehrere der o.g. Aufgaben werden durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. One or more of the o.g. Tasks are solved by the independent claims. Advantageous embodiments are described i.a. in the dependent claims.
Gemäß einem Aspekt wird ein Verfahren zur Ermittlung der Zuverlässigkeit eines Objekterkennungssystems bzw. eines Objekterkennungsverfahrens zur Detektion eines Objektes in einem Bild beschrieben. Das Bild umfasst eine Vielzahl von Bildpunkten (auch als Pixel bezeichnet). Die Bildpunkte können unterschiedliche Graustufen und/oder Helligkeiten aufweisen. Das Bild kann von einer Kamera (z.B. von einer Stereo-Kamera) erfasst worden sein. Die Kamera kann an einem Fahrzeug angeordnet sein, und kann eingerichtet sein, ein Umfeld des Fahrzeugs (z.B. ein Umfeld vor dem Fahrzeug) zu erfassen. Das zu detektierende Objekt kann dabei z.B. eine Person (insbesondere ein Fußgänger) sein. According to one aspect, a method for determining the reliability of an object recognition system or an object recognition method for detecting an object in an image is described. The image includes a plurality of pixels (also referred to as pixels). The pixels may have different gray levels and / or brightnesses. The image may have been captured by a camera (e.g., a stereo camera). The camera may be mounted on a vehicle and may be configured to detect an environment of the vehicle (e.g., an environment in front of the vehicle). The object to be detected may be e.g. to be a person (especially a pedestrian).
Die Zuverlässigkeit kann durch Werte für ein oder mehrere Zuverlässigkeitsmaße angezeigt werden. Dabei können die ein oder mehreren Zuverlässigkeitsmaße ein oder mehrere umfassen von, eine Korrektklassifikationsrate des Objekterkennungssystems, eine Fehlerrate des Objekterkennungssystems, eine Precision des Objekterkennungssystems, einen Recall des Objekterkennungssystems, eine User’s Accurary des Objekterkennungssystems, und/oder eine Producer’s Accurary des Objekterkennungssystems. The reliability can be indicated by values for one or more confidence measures. The one or more confidence measures may include one or more of, a correct classification rate of the object recognition system, an error rate of the object recognition system, a precision of the object recognition system, a recall of the object recognition system, a user's accuracy of the object recognition system, and / or a producer's accurary of the object recognition system.
Das Verfahren umfasst das Ermitteln von einer globalen Beleuchtungssituation eines Bildes auf Basis der Vielzahl von Bildpunkten. Mit anderen Worten, es kann eine Situation der Beleuchtung des Gesamtbildes ermittelt werden (z.B. durch Analyse aller Bildpunkte des Bildes). Insbesondere kann für das Gesamt-Bild eine Beleuchtungsklasse ermittelt werden, welche die globale Beleuchtungssituation des Bildes beschreibt. The method includes determining a global lighting situation of an image based on the plurality of pixels. In other words, a situation of illuminating the entire image can be determined (e.g., by analyzing all the pixels of the image). In particular, an illumination class can be determined for the overall image, which describes the global illumination situation of the image.
Desweiteren umfasst das Verfahren das Ermitteln eines Bildausschnittes für die Detektion des Objektes, wobei der Bildausschnitt eine Teilmenge der Vielzahl von Bildpunkten umfasst. Typischerweise umfasst ein Bild eine Vielzahl von Bildausschnitten. Die Vielzahl von Bildausschnitten kann durch Verschieben eines Suchfensters entlang einer horizontalen Achse und/oder entlang einer vertikalen Achse des Bildes mit einer vordefinierten Schrittweite ermittelt werden. Furthermore, the method comprises determining an image section for the detection of the object, the image section comprising a subset of the plurality of pixels. Typically, an image comprises a plurality of image sections. The plurality of image sections can be determined by moving a search window along a horizontal axis and / or along a vertical axis of the image with a predefined step size.
Insbesondere kann durch ein derartiges Abtasten des Bildes eine Sequenz von Bildausschnitten ermittelt werden, wobei für jeden Bildausschnitt der Sequenz bzw. der Vielzahl von Bildausschnitten eine zu erwartende Zuverlässigkeit des Objekterkennungssystems bzw. Objekterkennungsverfahrens ermittelt werden kann. In particular, such a scanning of the image can be used to determine a sequence of image sections, wherein for each image section of the sequence or the plurality of image sections, an expected reliability of the object recognition system or object recognition method can be determined.
Ein Bildausschnitt kann eine bestimmte Größe und/oder Form aufweisen. Die Größe und/oder die Form des Bildausschnittes können dabei von dem zu detektierenden Objekt abhängen. So kann sichergestellt werden, dass ein Rahmen des Bildausschnittes das zu detektierende Objekt umschließen kann. Bei der Wahl der Größe der Bildausschnitte kann auch eine betrachtete Entfernung des zu detektierenden Objekts berücksichtigt werden. Insbesondere können Bildausschnitte mit unterschiedlichen Größen analysiert werden, um Objekte in unterschiedlichen Entfernungen von der Kamera zu ermitteln, mit der das Bild erfasst wurde. An image section may have a specific size and / or shape. The size and / or the shape of the image section may depend on the object to be detected. This ensures that a frame of the image section can surround the object to be detected. When choosing the size of the image sections, a considered distance of the object to be detected can also be taken into account. In particular, image sections of different sizes can be analyzed to detect objects at different distances from the camera with which the image was acquired.
Das Verfahren umfasst weiter das Ermitteln einer lokalen Beleuchtungssituation eines Bildausschnittes auf Basis der Teilmenge der Bildpunkte des Bildausschnittes. Mit anderen Worten, es kann eine Situation der Beleuchtung des Bildausschnittes ermittelt werden (z.B. durch Analyse aller Bildpunkte des Bildausschnittes). Insbesondere kann für den Bildausschnitt eine Beleuchtungsklasse ermittelt werden, welche die lokale Beleuchtungssituation des Bildausschnittes beschreibt. In analoger Weise können die lokalen Beleuchtungssituationen für jeden Bildausschnitt aus der Sequenz bzw. der Vielzahl von Bildausschnitten des Bildes ermittelt werden. The method further comprises determining a local illumination situation of an image detail on the basis of the subset of the pixels of the image detail. In other words, a situation of illuminating the image section can be determined (for example, by analyzing all pixels of the image section). In particular, an illumination class which describes the local illumination situation of the image section can be determined for the image detail. In an analogous manner, the local lighting situations for each image section from the sequence or the plurality of image sections of the image can be determined.
Außerdem umfasst das Verfahren das Bestimmten, auf Basis der globalen Beleuchtungssituation und auf Basis der lokalen Beleuchtungssituation, der Zuverlässigkeit des Objekterkennungssystems für die Detektion eines Objektes in einem Bildausschnitt, welcher die spezifische Kombination aus globaler Beleuchtungssituation und lokaler Beleuchtungssituation aufweist. In addition, the method includes determining, based on the global lighting situation and based on the local lighting situation, the reliability of the object recognition system for the detection of an object in a frame having the specific combination of global lighting situation and local lighting situation.
Durch die Ermittlung der Kombination aus globaler Beleuchtungssituation und lokaler Beleuchtungssituation eines Bildausschnittes kann somit bereits vor Durchführung eines Objekterkennungsverfahrens bzw. vor Anwendung eines Objekterkennungssystems eine zu erwartende Zuverlässigkeit der Objekterkennung bestimmt werden. So kann der Rechenaufwand für die Objekterkennung in einem Bild reduziert werden. Insbesondere kann so eine Reihenfolge, in der die Vielzahl von Bildausschnitten eines Bildes nach Objekten durchsucht wird, optimiert werden (z.B. um die Detektion eines Objektes zu beschleunigen). By determining the combination of global illumination situation and local illumination situation of an image section, an expected reliability of the object recognition can thus be determined even before an object recognition method or before the application of an object recognition system. Thus, the computational effort for the object recognition can be reduced in one image. In particular, such an order in which the plurality of image sections of an image are searched for objects can be optimized (for example, to speed up the detection of an object).
Die Zuverlässigkeit des Objekterkennungssystems (bzw. des Objekterkennungsverfahrens) für die Detektion eines Objektes in dem Bildausschnitt kann anhand von vordefinierten Zuverlässigkeitsdaten bestimmt werden. Dabei können die Zuverlässigkeitsdaten verschiedenen Kombinationen von einer globalen Beleuchtungssituation und von einer lokalen Beleuchtungssituation jeweils zumindest einen Zuverlässigkeitswert (z.B. für ein oder mehrere Zuverlässigkeitsmaße) zuweisen. Somit kann die Zuverlässigkeit der Objekterkennung für einen Bildausschnitt in effizienter Weise ermittelt werden. The reliability of the object recognition system (or the object recognition method) for the detection of an object in the image detail can be determined on the basis of predefined reliability data. In doing so, the reliability data may assign at least one reliability value (e.g., for one or more confidence measures) to different combinations of a global lighting situation and a local lighting situation. Thus, the reliability of the object recognition for a frame can be determined efficiently.
Die Zuverlässigkeitsdaten können auf Basis von einem Test-Datensatz mit einer Vielzahl von Test-Bildern ermittelt worden sein. Alternativ oder ergänzend können die Zuverlässigkeitsdaten in einer Look-Up Tabelle angeordnet sein, die für jede mögliche Kombination von einer globalen Beleuchtungssituation und von einer lokalen Beleuchtungssituation eine zu erwartende Zuverlässigkeit (z.B. Werte von ein oder mehreren Zuverlässigkeitsmaßen) anzeigt. The reliability data may have been determined based on a test data set having a plurality of test images. Alternatively or additionally, the reliability data may be arranged in a look-up table that indicates expected reliability (e.g., values of one or more confidence measures) for each possible combination of a global lighting situation and a local lighting situation.
Wie bereits oben dargelegt, umfasst das Bild typischerweise eine Vielzahl von Bildausschnitten. Das Verfahren kann das Ermitteln von einer Vielzahl von lokalen Beleuchtungssituationen für die Vielzahl von Bildausschnitten umfassen. As already stated above, the image typically comprises a plurality of image sections. The method may include determining a plurality of local lighting situations for the plurality of frames.
Desweiteren kann das Verfahren umfassen, das Bestimmten, auf Basis der Vielzahl von lokalen Beleuchtungssituationen und auf Basis der globalen Beleuchtungssituation, von einer Vielzahl von Zuverlässigkeitswerten des Objekterkennungssystems bzw. des Objekterkennungsverfahrens für die Detektion eines Objektes in der Vielzahl von Bildausschnitten. Desweiteren kann in Abhängigkeit von der Vielzahl von Zuverlässigkeitswerten, eine Reihenfolge der Vielzahl von Bildausschnitten für die Detektion eines Objektes bestimmt werden. So kann der Rechenaufwand für die Objekterkennung reduziert oder zumindest priorisiert werden. Furthermore, the method may include determining, based on the plurality of local lighting situations and based on the global lighting situation, a plurality of reliability values of the object recognition system and the object recognition method for detecting an object in the plurality of image sections, respectively. Furthermore, depending on the plurality of reliability values, an order of the plurality of image sections for the detection of an object can be determined. Thus, the computational effort for the object recognition can be reduced or at least prioritized.
Das Objekterkennungssystem/verfahren kann z.B. für einen ersten Bildausschnitt aus der Vielzahl von Bildausschnitten einen ersten Zuverlässigkeitswert aufweisen, und das Objekterkennungssystem/verfahren kann für einen zweiten Bildausschnitt aus der Vielzahl von Bildausschnitten einen zweiten Zuverlässigkeitswert aufweisen. Der erste Zuverlässigkeitswert kann höher sein als der zweite Zuverlässigkeitswert. Die Reihenfolge der Vielzahl von Bildausschnitten kann dann derart gewählt werden, dass zunächst im ersten Bildausschnitt und erst dann im zweiten Bildausschnitt bestimmt wird, ob der jeweilige Bildausschnitt das zu detektierende Objekt aufweist. Es kann somit einer Priorisierung der Objekterkennung in Abhängigkeit von der erwarteten Zuverlässigkeit durchgeführt werden. So kann (im Mittel) die Detektion eines Objektes innerhalb von einem Bild beschleunigt werden. The object recognition system / method may e.g. have a first reliability value for a first image section of the plurality of image sections, and the object recognition system / method can have a second reliability value for a second image section of the plurality of image sections. The first reliability value may be higher than the second reliability value. The order of the plurality of image sections can then be selected such that it is first determined in the first image section and only then in the second image section whether the respective image section has the object to be detected. Thus, a prioritization of the object recognition can be carried out depending on the expected reliability. Thus, (on average) the detection of an object within an image can be accelerated.
Das Ermitteln einer Beleuchtungssituation auf Basis von Bildpunkten (z.B. das Ermitteln einer globalen Beleuchtungssituation oder das Ermitteln einer lokalen Beleuchtungssituation) kann umfassen, das Ermitteln, auf Basis der Bildpunkte (z.B. der Bildpunkte des Bildes oder der Bildpunkte des Bildausschnittes), einer Vielzahl von Gütemaß-Werten für eine entsprechende Vielzahl von Gütemaßen. Beispielhafte Gütemaße sind eine statistische Größe aus einem Histogramm von Helligkeitswerten der Bildpunkte und/oder ein zentrales Moment, das einen Schwerpunkt der Helligkeitswerte der Bildpunkte beschreibt. Die Vielzahl von Gütemaß-Werten kann einen Merkmalsvektor für die Bildpunkte bilden, für welche eine Beleuchtungssituation ermittelt werden soll. Determining a lighting situation on the basis of pixels (eg determining a global lighting situation or determining a local lighting situation) may include determining, based on the pixels (eg the pixels of the image or the pixels of the image), a plurality of quality measures. Values for a corresponding variety of quality measures. Exemplary quality measures are a statistical quantity from a histogram of brightness values of the pixels and / or a central moment which describes a center of gravity of the brightness values of the pixels. The plurality of quality measure values may form a feature vector for the pixels for which a lighting situation is to be determined.
Desweiteren kann das Ermitteln einer Beleuchtungssituation umfassen, das Ermitteln, auf Basis der Vielzahl von Gütemaß-Werten, von einer Beleuchtungsklasse aus einer Vielzahl von vordefinierten Beleuchtungsklassen, wobei die ermittelte Beleuchtungsklasse die Beleuchtungssituation der Bildpunkte anzeigt. Die Vielzahl von Beleuchtungsklassen kann dabei ein oder mehrere umfassen von, eine Beleuchtungsklasse, die eine Beleuchtungssituation mit Tageslicht anzeigt, und/oder eine Beleuchtungsklasse, die eine Beleuchtungssituation mit künstlichem Licht anzeigt, insbesondere in einer ländlichen Region, in einem Wohngebiet oder in einem Stadtzentrum. Furthermore, determining a lighting situation may include determining, based on the plurality of goodness-of-values, one lighting class from a plurality of predefined lighting classes, the determined lighting class indicating the lighting situation of the pixels. The plurality of illumination classes may include one or more of, a lighting class indicative of a lighting situation with daylight, and / or a lighting class indicating a lighting situation with artificial light, in particular in a rural region, in a residential area or in a city center.
Die Beleuchtungsklasse für die Bildpunkte kann mittels eines Beleuchtungs-Klassifikators ermittelt werden, der eingerichtet ist, Merkmalsvektoren einer (und ggf. mehreren) Beleuchtungsklassen aus der Vielzahl von Beleuchtungsklassen zuzuweisen. Desweiteren kann anhand von dem Beleuchtungs-Klassifikator eine Wahrscheinlichkeit ermittelt werden, mit der der Merkmalsvektor (und damit das Bild bzw. der Bildausschnitt) in eine Beleuchtungsklasse fällt. Ggf. kann ein Bildausschnitt bzw. ein Bild durch den Beleuchtungs-Klassifikator einer Vielzahl von Beleuchtungsklassen zugewiesen werden, und es kann ermittelt werden, mit welcher Wahrscheinlichkeit der Bildausschnitt bzw. das Bild die jeweilige Beleuchtungsklasse aufweist. Der Beleuchtungs-Klassifikator kann einen Bayes-Klassifikator, einen Expectation Maximization-Klassifikator, einen K-Means-Klassifikator, und/oder einen Support Vector Machine-Klassifikator umfassen. Der Beleuchtungs-Klassifikator kann auf Basis von einem Trainings-Datensatz mit einer Vielzahl von Trainings-Bildern angelernt worden sein. The illumination class for the pixels can be determined by means of an illumination classifier that is set up, feature vectors of one (and possibly several) Assign lighting classes from the wide range of lighting classes. Furthermore, based on the illumination classifier, a probability can be determined with which the feature vector (and therefore the image or the image detail) falls into an illumination class. Possibly. For example, an image section or an image can be assigned by the illumination classifier to a plurality of illumination classes, and it can be determined with which probability the image section or the image has the respective illumination class. The illumination classifier may include a Bayes classifier, an Expectation Maximization classifier, a K-Means classifier, and / or a Support Vector Machine classifier. The illumination classifier may have been trained based on a training record having a plurality of training images.
Somit kann durch die Verwendung von Beleuchtungsklassen und ggf. durch die Verwendung eines Beleuchtungs-Klassifikators in effizienter und robuster Weise die Beleuchtungssituation von Bildpunkten (z.B. von Bildpunkten eines Bildes oder von Bildpunkten eines Bildausschnittes) ermittelt werden. Thus, by using lighting classes and possibly by using a lighting classifier in an efficient and robust manner, the lighting situation of pixels (e.g., pixels of an image or pixels of a frame) can be determined.
Das Bestimmen, ob ein Bildausschnitt des Bildes ein zu detektierendes Objekt aufweist bzw. anzeigt, kann umfassen, das Ermitteln, auf Basis der Teilmenge von Bildpunkten des Bildausschnittes, von einem Deskriptor für den Bildausschnitt. Der Deskriptor kann z.B. gemäß einem HOG (Histogram of Oriented Gradients)-Modell, einem LBP (Local Binary Patterns)-Modell, und/oder einem Wavelet-Modell ermittelt werden. Determining whether an image portion of the image comprises an object to be detected may include determining, based on the subset of pixels of the image detail, a descriptor for the image detail. The descriptor may e.g. according to a HOG (Histogram of Oriented Gradients) model, a LBP (Local Binary Patterns) model, and / or a wavelet model.
Desweiteren kann das Bestimmen, ob ein Bildausschnitt des Bildes ein zu detektierendes Objekt aufweist bzw. anzeigt, umfassen, das Klassifizieren des Bildausschnittes mittels eines Objekt-Klassifikators. Dabei ist der Objekt-Klassifikator eingerichtet, den Deskriptor des Bildausschnittes einer positiven Objekt-Klasse oder einer negativen Objekt-Klasse zuzuordnen. Die positive Objekt-Klasse kann anzeigen, dass der Bildausschnitt das zu detektierende Objekt aufweist, und die negative Objekt-Klasse kann anzeigen, dass der Bildausschnitt das zu detektierende Objekt nicht aufweist. Der Objekt-Klassifikator kann dabei z.B. einen Bayes-Klassifikator, einen Expectation Maximization-Klassifikator, einen K-Means-Klassifikator, und/oder einen Support Vector Machine-Klassifikator umfassen. Der Objekt-Klassifikator kann auf Basis von einem Trainings-Datensatz mit einer Vielzahl von Trainings-Bildern angelernt worden sein. Furthermore, determining whether an image section of the image comprises an object to be detected comprises classifying the image section using an object classifier. In this case, the object classifier is set up to associate the descriptor of the image section with a positive object class or a negative object class. The positive object class may indicate that the frame has the object to be detected, and the negative object class may indicate that the frame does not have the object to be detected. The object classifier may be e.g. a Bayes classifier, an Expectation Maximization classifier, a K-Means classifier, and / or a Support Vector Machine classifier. The object classifier may have been trained based on a training record having a plurality of training images.
Das Detektionsverfahren, welches für die Detektion in einem Bildausschnitt verwendet wird, kann von der Beleuchtungssituation des Bildausschnittes abhängen. Insbesondere können dabei ein Typ des Deskriptors, eine Auflösung des Deskriptors, ein Typ des Objekt-Klassifikators und/oder ein Trainings-Datensatz, welcher zum Anlernen des Objekt-Klassifikators verwendet wurde, von der globalen Beleuchtungssituation und von der lokalen Beleuchtungssituation des Bildausschnittes abhängen. Somit kann das verwendete Detektionsverfahren in präziser Weise an die Beleuchtungssituation des Bildausschnittes angepasst werden, und somit die Zuverlässigkeit des Objekterkennungsverfahrens erhöht werden. The detection method which is used for the detection in an image section may depend on the illumination situation of the image section. In particular, a type of the descriptor, a resolution of the descriptor, a type of the object classifier and / or a training data set which was used to teach the object classifier may depend on the global lighting situation and on the local lighting situation of the image section. Thus, the detection method used can be adapted in a precise manner to the illumination situation of the image section, and thus the reliability of the object recognition method can be increased.
Das Bild kann einem aktuellen Bild aus einer Sequenz von zeitlich aufeinander folgenden Bildern entsprechen. Die globale Beleuchtungssituation des aktuellen Bildes kann dann auf Basis der Bildpunkte von einer Vielzahl von Bildern aus der Sequenz von Bildern ermittelt werden. Insbesondere kann die Vielzahl von Bildern das aktuelle Bild und ein oder mehrere Bilder umfassen, die (ggf. direkt) zeitlich vor dem aktuellen Bild erfasst wurden. In analoger Weise kann die lokale Beleuchtungssituation eines Bildausschnittes des aktuellen Bildes auf Basis von korrespondierenden Teilmengen der Bildpunkte der Vielzahl von Bildern ermittelt werden. Durch die Berücksichtigung von einer Vielzahl von Bildern kann die Güte der ermittelten Beleuchtungssituationen erhöht werden. The image may correspond to a current image from a sequence of temporally successive images. The global illumination situation of the current image can then be determined based on the pixels of a plurality of images from the sequence of images. In particular, the plurality of images may include the current image and one or more images captured (possibly directly) temporally prior to the current image. In an analogous manner, the local illumination situation of an image section of the current image can be determined on the basis of corresponding subsets of the pixels of the plurality of images. By considering a plurality of images, the quality of the determined lighting situations can be increased.
Das Bild kann, wie bereits dargelegt, durch eine Kamera eines Fahrzeugs erfasst worden sein. Die Kamera kann eingerichtet sein, ein Umfeld vor dem Fahrzeug zu erfassen. Die globale und/oder die lokale Beleuchtungssituation kann auch auf Basis von A-priori Wissen bezüglich der Beleuchtungssituation in dem Umfeld vor dem Fahrzeug ermittelt werden. Das A-priori Wissen kann ein oder mehrere umfassen von: eine Tageszeit an dem das Bild erfasst wurde; ein Datum an dem das Bild erfasst wurde; die Aufgangs- und/oder Untergangszeit der Sonne an dem Tag an dem das Bild erfasst wurde; und/oder eine geographische Position des Umfelds, welches in dem Bild dargestellt ist (z.B. die GPS Koordinaten in Zusammenschau mit digitalen Karteninformationen). Durch die Berücksichtigung von A-priori Wissen kann die Güte der ermittelten Beleuchtungssituationen erhöht werden. As already explained, the image may have been detected by a camera of a vehicle. The camera may be configured to detect an environment in front of the vehicle. The global and / or the local lighting situation can also be determined on the basis of a-priori knowledge regarding the lighting situation in the environment in front of the vehicle. The a-priori knowledge may include one or more of: a time of day the image was acquired; a date on which the image was captured; the rising and / or sunset time of the sun on the day the image was captured; and / or a geographic location of the environment represented in the image (e.g., GPS coordinates in conjunction with digital map information). By considering a-priori knowledge, the quality of the determined lighting situations can be increased.
Das Fahrzeug kann über die Kamera hinaus ein oder mehrere Umfeldsensoren, insbesondere einen Radarsensor und/oder einen Lidar-Sensor, umfassen, die eingerichtet sind, Umfelddaten bezüglich des Umfelds des Fahrzeugs zu erfassen. Die globale und/oder die lokale Beleuchtungssituation kann dann auch auf Basis von den Umfelddaten ermittelt werden, um die Güte der ermittelten Beleuchtungssituation zu erhöhen. Insbesondere kann das Verfahren weiter umfassen, das Detektieren, auf Basis von den Umfelddaten, von einem statischen oder einem dynamischen Objekt in dem Umfeld des Fahrzeugs, das Einfluss auf die Beleuchtungssituation des Bildes haben kann. Das statische Objekt kann z.B. eine (beleuchtete) Straßenlaterne und das dynamische Objekt kann z.B. ein entgegenkommendes Fahrzeug umfassen. Durch die Lichtquellen dieser Objekte kann es zu einer Veränderung der ortsgebundenen Beleuchtungsbedingungen kommen, die bei der Ermittlung der Beleuchtungssituation berücksichtigt werden kann. Insbesondere kann die globale und/oder lokale Beleuchtungssituation auch auf Basis von dem detektierten statischen oder dynamischen Objekt ermittelt werden, um die Güte der ermittelten Beleuchtungssituation zu erhöhen. In addition to the camera, the vehicle may comprise one or more environment sensors, in particular a radar sensor and / or a lidar sensor, which are set up to capture surroundings data relating to the surroundings of the vehicle. The global and / or the local lighting situation can then also be determined on the basis of the environmental data in order to increase the quality of the determined lighting situation. In particular, the method may further include detecting, based on the environmental data, a static or dynamic object in the environment of the vehicle that may affect the lighting situation of the image. The static object can For example, an (illuminated) street lamp and the dynamic object may include, for example, an oncoming vehicle. The light sources of these objects can lead to a change in the localized lighting conditions, which can be taken into account when determining the lighting situation. In particular, the global and / or local lighting situation can also be determined on the basis of the detected static or dynamic object in order to increase the quality of the determined lighting situation.
Das Verfahren kann weiter umfassen, das Ermitteln einer erwarteten Entfernung des zu detektierenden Objektes. Die Teilmenge der Vielzahl von Bildpunkten für die Ermittlung der lokalen Beleuchtungssituation des Bildausschnittes kann dann auf Basis der erwarteten Entfernung des zu detektierenden Objektes bestimmt werden. Insbesondere kann eine Auflösung von berücksichtigten Bildpunkten mit sinkender erwarteter Entfernung des zu detektierenden Objektes (und einer somit steigenden Anzahl von Bildpunkten, in denen das zu detektierende Objekt dargestellt ist) reduziert werden. The method may further comprise determining an expected distance of the object to be detected. The subset of the plurality of pixels for determining the local illumination situation of the image section can then be determined on the basis of the expected distance of the object to be detected. In particular, a resolution of pixels considered can be reduced with decreasing expected distance of the object to be detected (and thus an increasing number of pixels in which the object to be detected is shown).
Die Auflösung eines Bildausschnittes zur Bestimmung der Beleuchtungssituation bzw. der Beleuchtungsklasse kann adaptiv herabgesetzt werden, insbesondere in Abhängigkeit von der Entfernung in dem das zu detektierende Objekt zu erwarten ist. Beispielsweise umfasst eine Person im Nahbereich eine hohe Anzahl von Bildpunkten, welche typischerweise nicht alle für die Bestimmung der Beleuchtungssituation benötigt werden. Hier kann durch Herabsetzen der Auflösung Rechenzeit für die Ermittlung der Beleuchtungssituation eingespart werden. Andererseits umfasst eine Person im Fernbereich typischerweise wenige Bildpunkt, die nach Möglichkeit alle für die Ermittlung der Beleuchtungssituation verwendet werden sollten. The resolution of an image section for determining the illumination situation or the illumination class can be reduced adaptively, in particular as a function of the distance in which the object to be detected is to be expected. For example, a person in the vicinity includes a high number of pixels, which typically are not all needed for the determination of the lighting situation. Here, by reducing the resolution, computing time can be saved for determining the lighting situation. On the other hand, a person in the far field typically includes a few pixels which, if possible, should all be used to determine the lighting situation.
Gemäß einem Aspekt wird eine Steuereinheit beschrieben, die eingerichtet ist, ein oder mehrere der in diesem Dokument beschriebenen Verfahren auszuführen. In one aspect, a controller configured to perform one or more of the methods described in this document is described.
Gemäß einem weiteren Aspekt wird ein Fahrzeug (z.B. ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad) beschrieben, das eine in diesem Dokument beschriebene Steuereinheit umfasst. In another aspect, a vehicle (e.g., a passenger car, a truck, or a motorcycle) is described that includes a control unit described in this document.
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen. In another aspect, a software (SW) program is described. The SW program may be set up to run on a processor (e.g., on a controller) and thereby perform the method described in this document.
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen. In another aspect, a storage medium is described. The storage medium may include a SW program that is set up to run on a processor and thereby perform the method described in this document.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtung und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden. It should be understood that the methods, devices and systems described herein may be used alone as well as in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, apparatus, and systems described herein may be combined in a variety of ways. In particular, the features of the claims can be combined in a variety of ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen Furthermore, the invention will be described in more detail with reference to exemplary embodiments. Show
1a ein beispielhaftes Fahrzeug mit einer Umfeld-Kamera; 1a an exemplary vehicle with an environment camera;
1b beispielhafte Komponenten eines Fahrzeugs; 1b exemplary components of a vehicle;
2 beispielhafte Bildausschnitte aus einem von der Umfeld-Kamera erfassten Bild; 2 exemplary image excerpts from an image captured by the surrounding camera;
3a ein Ablaufdiagramm eines beispielhaften Verfahrens zur Erkennung eines Objektes unter Berücksichtigung der Beleuchtungssituation; 3a a flowchart of an exemplary method for detecting an object taking into account the lighting situation;
3b ein beispielhaftes Verfahren zur Klassifikation einer Beleuchtungssituation; 3b an exemplary method for classifying a lighting situation;
3c ein Ablaufdiagramm eines beispielhaften Verfahrens zur Erkennung eines Objektes; 3c a flowchart of an exemplary method for detecting an object;
4 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung der Zuverlässigkeit eines Objekterkennungsverfahrens; 4 a flowchart of an exemplary method for determining the reliability of an object detection method;
5a beispielhafte Stereo-Bilder und ein daraus ermitteltes Disparitätsbild; 5a exemplary stereo images and a disparity image determined therefrom;
5b ein Ablaufdiagramm eines beispielhaften Verfahrens zur Erkennung eines Objektes, unter Berücksichtigung von Disparität; 5b a flowchart of an exemplary method for detecting an object, taking into account disparity;
5c ein beispielhaftes Histogramm von Disparitätswerten; 5c an exemplary histogram of disparity values;
6a eine beispielhafte Verteilung der Wahrscheinlichkeit von zu detektierenden Objekten in Bildausschnitten mit unterschiedlichen Beleuchtungssituationen; und 6a an exemplary distribution of the probability of objects to be detected in image sections with different lighting situations; and
6b ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung von Trainingsdaten für einen Objekt-Klassifikator. 6b a flowchart of an exemplary method for determining training data for an object classifier.
Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der zuverlässigen Erkennung von einem Objekt (insbesondere von einer Person) auf Basis von Bilddaten. In diesem Zusammenhang zeigt 1a ein beispielhaftes Fahrzeug 100. Das Fahrzeug 100 weist eine Kamera 101 auf, die eingerichtet ist, ein Umfeld vor dem Fahrzeug 100 zu erfassen. In dem dargestellten Beispiel ist die Kamera 101 an einem Rückspiegel im Innenraum des Fahrzeugs 100 angeordnet. Wie in 1a dargestellt, kann die Kamera 101 eine Stereo-Kamera umfassen, die eingerichtet ist, ein rechtes Bild und ein linkes Bild von dem Umfeld des Fahrzeugs 100 zu erfassen. Auf Basis von dem rechten Bild und von dem linken Bild können Tiefen-Informationen ermittelt werden (z.B. eine Disparität). Insbesondere können auf Basis des rechten Bildes und des linken Bildes Informationen bezüglich eines Abstands eines detektieren Objekts zu dem Fahrzeug 100 ermittelt werden. As set forth above, the present document is concerned with the reliable recognition of an object (especially a person) based on image data. In this context shows 1a an exemplary vehicle 100 , The vehicle 100 has a camera 101 which is set up, an environment in front of the vehicle 100 capture. In the example shown, the camera is 101 at a rearview mirror in the interior of the vehicle 100 arranged. As in 1a shown, the camera can 101 a stereo camera, which is arranged, a right image and a left image of the environment of the vehicle 100 capture. On the basis of the right image and the left image depth information can be determined (eg a disparity). In particular, based on the right image and the left image, information regarding a distance of a detected object to the vehicle may be obtained 100 be determined.
1b zeigt ein Blockdiagramm mit beispielhaften Komponenten eines Fahrzeugs 100. Die von der Kamera 101 erfassten Bilddaten 111 (z.B. eine Sequenz von Bildern) kann an eine Steuereinheit 102 weitegeleitet werden. Die Steuereinheit 102 ist eingerichtet, auf Basis der Bilddaten 111 zu ermitteln, ob sich im vorderen Umfeld des Fahrzeugs 100 ein Objekt (insbesondere eine Person) befindet oder nicht. Desweiteren kann die Steuereinheit 102 eingerichtet sein, ein oder mehrere Maßnahmen zu veranlassen, wenn ein Objekt detektiert wurde. Insbesondere können ein oder mehrere Steuergeräte 103 des Fahrzeugs 100 veranlasst werden, die ein oder mehreren Maßnahmen durchzuführen. Beispielhafte Maßnahmen sind das Ausgeben eines (akustischen und/oder optischen) Warnhinweises an einen Fahrer des Fahrzeugs 100, oder das Durchführen einer automatischen Bremsung des Fahrzeugs 100, um eine Kollision mit dem detektierten Objekt zu vermeiden oder um die Folgen einer Kollision zu reduzieren. 1b shows a block diagram with exemplary components of a vehicle 100 , The from the camera 101 captured image data 111 (eg a sequence of images) can be sent to a control unit 102 be passed on. The control unit 102 is set up based on the image data 111 to determine if in the front of the vehicle 100 an object (especially a person) is or is not. Furthermore, the control unit 102 be arranged to initiate one or more actions when an object has been detected. In particular, one or more control devices 103 of the vehicle 100 be prompted to carry out one or more measures. Exemplary measures are the issuing of an (audible and / or visual) warning to a driver of the vehicle 100 , or performing an automatic braking of the vehicle 100 in order to avoid a collision with the detected object or to reduce the consequences of a collision.
2 zeigt ein beispielhaftes Bild 200 aus den Bilddaten 111. Das Bild 200 weist eine Vielzahl von Bildpunkten bzw. Pixeln 203 auf, die ein Umfeld des Fahrzeugs 100 wiedergeben. Das Bild 200 kann analysiert werden, um ein in dem Bild 200 dargestelltes Objekt (insbesondere eine Person) zu erkennen. Die Analyse des Bildes 200 kann dabei ggf. auf einen Teilbereich des Bildes 200 beschränkt werden, da z.B. nur Objekte detektiert werden sollen, die einen vordefinierten Abstand zum Fahrzeug 100 nicht überschreiten. Beispielsweise kann die Analyse des Bildes 200 auf einen unteren Bildbereich unterhalb einer horizontalen Linie 201 beschränkt werden, da sich Objekte oberhalb dieser Linie 201 in einem zu großen Abstand zum Fahrzeug 100 befinden. So kann der Rechenaufwand zur Erkennung eines Objektes reduziert werden. 2 shows an exemplary picture 200 from the image data 111 , The picture 200 has a plurality of pixels 203 on, which is an environment of the vehicle 100 play. The picture 200 can be analyzed to get one in the picture 200 to recognize the represented object (especially a person). The analysis of the picture 200 may possibly be on a partial area of the image 200 be limited because, for example, only objects are to be detected, which has a predefined distance to the vehicle 100 do not exceed. For example, the analysis of the image 200 on a lower screen area below a horizontal line 201 be limited because objects are above this line 201 too far away from the vehicle 100 are located. Thus, the computational effort to recognize an object can be reduced.
Zur Erkennung eines Objektes können einzelne Bildausschnitte 202 (auch als Stichproben bezeichnet) des zu analysierenden Teils des Bildes 200 betrachtet werden. Ein Bildausschnitt 202 kann dabei eine rechteckige Form aufweisen, mit einer Höhe 211 und einer Breite 212. Die Höhe 211 und/oder die Breite 212 eines Bildausschnittes 202 können dabei verändert werden, um unterschiedlich große Objekte (z.B. einen Erwachsenen oder ein Kind) und/oder Objekte in unterschiedlicher Entfernung zum Fahrzeug 100 zu detektieren. Dabei können ggf., in Abhängigkeit von typischen Größen und/oder Entfernungen von einem zu detektierenden Objekt, eine minimale Höhe / Breite bzw. eine maximal Höhe / Breite von Bildausschnitten 202 festgelegt werden. So kann der Rechenaufwand für die Suche nach einem Bildausschnitt 202, der ein Objekt umfasst, reduziert werden. To recognize an object, individual image sections 202 (also referred to as samples) of the part of the image to be analyzed 200 to be viewed as. A picture detail 202 can have a rectangular shape, with a height 211 and a width 212 , The height 211 and / or the width 212 a picture detail 202 can be changed to different sized objects (eg an adult or a child) and / or objects at different distances to the vehicle 100 to detect. In this case, depending on typical sizes and / or distances from an object to be detected, a minimum height / width or a maximum height / width of image sections may be necessary 202 be determined. So can the computational effort for the search for a picture detail 202 that includes an object can be reduced.
Es kann somit ein Bildausschnitt 202 aus dem Bild 200 betrachtet werden. Der Bildausschnitt 202 umfasst dabei typischerweise eine geringere Anzahl von Pixeln als das Bild 200. Anhand der in diesem Dokument beschriebenen Verfahren kann ermittelt werden, ob der Bildausschnitt 202 ein zu erkennendes Objekt umfasst, z.B. ob auf dem Bildausschnitt 202 eine Person zu erkennen ist. Desweiteren können durch die Größe (z.B. die Höhe 211 und die Breite 212) des Bildausschnittes 202 Informationen bzgl. einer Entfernung eines detektierten Objektes zu dem Fahrzeug 100 ermittelt werden. It can thus be a picture detail 202 from the picture 200 to be viewed as. The picture section 202 typically includes a smaller number of pixels than the image 200 , Based on the procedure described in this document, it can be determined whether the image section 202 includes an object to be recognized, eg whether on the image section 202 a person is recognizable. Furthermore, by the size (eg the height 211 and the width 212 ) of the image section 202 Information regarding a distance of a detected object to the vehicle 100 be determined.
Es können dabei unterschiedliche Bildausschnitte 202 aus dem Bild 200 betrachtet werden. Insbesondere können unterschiedliche Bildausschnitte 202 entlang einer horizontalen Bildachse 213 und/oder entlang einer vertikalen Bildachse 214 betrachtet werden. Dabei können auch sich überlappende Bildausschnitte 202 betrachtet werden. Beispielsweise kann eine Vielzahl von Bildausschnitten 202 betrachtet werden, die sich jeweils um eine bestimmte Schrittweite entlang der horizontalen und/oder vertikalen Achse 213, 214 voneinander unterscheiden. Alternativ oder ergänzend können Bildausschnitte 202 mit unterschiedlichen Höhen / Breiten 211, 212 betrachtet werden. It can thereby different image details 202 from the picture 200 to be viewed as. In particular, different image sections 202 along a horizontal image axis 213 and / or along a vertical image axis 214 to be viewed as. This can also be overlapping image sections 202 to be viewed as. For example, a plurality of image sections 202 are considered, each by a certain increment along the horizontal and / or vertical axis 213 . 214 differ from each other. Alternatively or additionally, image sections 202 with different heights / widths 211 . 212 to be viewed as.
Der Bildausschnitt 202 kann auch als Suchfenster bezeichnet werden, wobei sich die Positionen der Suchfenster durch ein rasterförmiges Abtasten des Bildes 200 ergeben. Die Form der Suchfenster sowie die Rasterweite der Abtastung ergeben sich aus der jeweiligen Anwendung. Für die Erkennung von Fußgängern eignet sich beispielsweise ein hoch-kantiges Rechteck (wie in 2 dargestellt). The picture section 202 may also be referred to as a search window, wherein the positions of the search window by a raster-shaped scanning of the image 200 result. The form of the search window as well as the raster width of the scan result from the respective application. For the detection of pedestrians, for example, a high-edged rectangle (as in 2 shown).
Wie eingangs dargelegt, führen unterschiedliche Beleuchtungsverhältnisse typischerweise zu signifikanten Unterschieden in Bezug auf die Zuverlässigkeit der Erkennung von Objekten in einem Bild 200. 3a zeigt ein Ablaufdiagramm eines beispielhaften Verfahrens 300 zur Erkennung eines Objektes in einem Bild 200. Das Verfahren 300 umfasst das Ermitteln 301 einer globalen Beleuchtungsklasse für das Bild 200. Mit anderen Worten, die Pixel 203 des Bildes 200 können analysiert werden, um das gesamte Bild 200 (bzw. den gesamten Teil des Bildes 200, in dem nach einem Objekt gesucht wird) einer bestimmten Beleuchtungsklasse zuzuordnen. Dabei werden die Pixel 203 des gesamten Bildes 200 bzw. des gesamten zu-analysierenden Teils des Bildes 200 betrachtet. Beispielhafte Beleuchtungsklassen sind z.B. eine Tag-Klasse, die eine Beleuchtungssituation bei Tageslicht anzeigt, und eine Nacht-Klasse, die eine Beleuchtungssituation bei künstlichem Licht anzeigt. Aufgrund von sehr unterschiedlichen Beleuchtungssituationen bei Nacht kann die Nacht-Klasse in weitere Unter-Klassen aufgeteilt werden. Beispielsweise kann für eine Nacht-Situation eine Landstraßen-Klasse, eine Wohngebiet-Klasse und eine Stadtzentrum-Klasse definiert werden, welche unterschiedlich starke künstliche Beleuchtungssituationen anzeigen. As stated above, different lighting conditions typically lead to significant differences in the reliability of detecting objects in an image 200 , 3a shows a flowchart of an exemplary method 300 to recognize an object in an image 200 , The procedure 300 includes determining 301 a global lighting class for the image 200 , In other words, the pixels 203 of the picture 200 can be analyzed to the entire picture 200 (or the entire part of the picture 200 to search for an object) to a specific lighting class. This will be the pixels 203 of the entire picture 200 or the entire part of the image to be analyzed 200 considered. Exemplary lighting classes are, for example, a tag class indicating a lighting situation in daylight and a night class indicating a lighting situation in artificial light. Due to very different lighting situations at night, the night class can be divided into other sub-classes. For example, for a night situation, a highway class, a residential class, and a city center class may be defined which indicate different levels of artificial lighting situations.
Das Verfahren 300 umfasst weiter, das Ermitteln 302 einer lokalen Beleuchtungssituation 302 für einen Bildausschnitt 202 des Bildes 200. Insbesondere kann der Bildausschnitt 202 einer Beleuchtungsklasse (z.B. einer der o.g. Beleuchtungsklassen) zugeordnet werden. Dabei werden nur die Pixel 203 des jeweiligen Bildausschnittes 202 betrachtet. Somit kann für jeden Bildausschnitt 202 eines Bildes 200 eine globale Beleuchtungsklasse (GK), welche die Beleuchtungssituation des Bildes 200 wiedergibt, aus dem der Bildausschnitt 202 stammt, und eine lokale Beleuchtungsklasse (LK) ermittelt werden. The procedure 300 includes, determining 302 a local lighting situation 302 for a picture section 202 of the picture 200 , In particular, the image section 202 a lighting class (eg one of the above lighting classes) are assigned. Thereby only the pixels become 203 of the respective image section 202 considered. Thus, for each image section 202 a picture 200 a global lighting class (GK), which illustrates the lighting situation of the image 200 reproduces from which the image section 202 comes, and a local lighting class (LK) are determined.
Das Bild 200, für das eine GK und/oder eine LK ermittelt werden soll, kann einem aktuellen Bild aus einer Sequenz von zeitlich aufeinander folgenden Bildern entsprechen. Die GK des aktuellen Bildes kann dann auf Basis der Pixel 203 von einer Vielzahl von Bildern aus der Sequenz von Bildern ermittelt werden. Insbesondere kann die Vielzahl von Bildern das aktuelle Bild und ein oder mehrere Bilder umfassen, die (ggf. direkt) zeitlich vor dem aktuellen Bild erfasst wurden. In analoger Weise kann die LK eines Bildausschnittes 202 des aktuellen Bildes auf Basis von korrespondierenden Teilmengen der Pixel 203 der Vielzahl von Bildern ermittelt werden. Durch die Berücksichtigung von einer Vielzahl von Bildern kann die Güte der ermittelten BK und/oder LK erhöht werden. The picture 200 for which a GK and / or a LK is to be determined may correspond to a current image from a sequence of temporally successive images. The GK of the current image can then be based on the pixels 203 be determined from a variety of images from the sequence of images. In particular, the plurality of images may include the current image and one or more images captured (possibly directly) temporally prior to the current image. In a similar way, the LK of a picture detail 202 of the current image based on corresponding subsets of the pixels 203 the plurality of images are determined. By considering a plurality of images, the quality of the determined BK and / or LK can be increased.
Das Bild 200 kann, wie bereits dargelegt, durch eine Kamera 101 eines Fahrzeugs 100 erfasst worden sein. Die Kamera 101 kann eingerichtet sein, ein Umfeld vor dem Fahrzeug 100 zu erfassen. Die GK und/oder die LK kann auch auf Basis von A-priori Wissen bezüglich der Beleuchtungssituation in dem Umfeld vor dem Fahrzeug 100 ermittelt werden. Das A-priori Wissen kann ein oder mehrere umfassen von: eine Tageszeit an dem das Bild 200 erfasst wurde; ein Datum an dem das Bild 200 erfasst wurde; die Aufgangs- und/oder Untergangszeit der Sonne an dem Tag an dem das Bild 200 erfasst wurde; und/oder eine geographische Position des Umfelds, welches in dem Bild 200 dargestellt ist (z.B. die GPS Koordinaten in Zusammenschau mit digitalen Karteninformationen). Durch die Berücksichtigung von A-priori Wissen kann die Güte der ermittelten GK und/oder LK erhöht werden. The picture 200 can, as already stated, by a camera 101 of a vehicle 100 have been recorded. The camera 101 can be set up, an environment in front of the vehicle 100 capture. The GK and / or the LK can also on the basis of a-priori knowledge regarding the lighting situation in the environment in front of the vehicle 100 be determined. The a-priori knowledge may include one or more of: a time of day on which the image 200 was recorded; a date on which the picture 200 was recorded; the rising and / or sunset time of the sun on the day on which the picture 200 was recorded; and / or a geographic location of the environment contained in the image 200 is shown (eg the GPS coordinates in conjunction with digital map information). By considering a-priori knowledge, the quality of the determined GK and / or LK can be increased.
Das Fahrzeug 100 kann über die Kamera 101 hinaus ein oder mehrere Umfeldsensoren, insbesondere einen Radarsensor und/oder einen Lidar-Sensor, umfassen, die eingerichtet sind, Umfelddaten bezüglich des Umfelds des Fahrzeugs 100 zu erfassen. Die GK und/oder die LK können dann auch auf Basis von den Umfelddaten ermittelt werden, um die Güte der ermittelten GK und/oder LK zu erhöhen. Insbesondere kann das Verfahren 300 weiter umfassen, das Detektieren, auf Basis von den Umfelddaten, von einem statischen oder einem dynamischen Objekt in dem Umfeld des Fahrzeugs 100, das Einfluss auf die Beleuchtungssituation des Bildes 200 haben kann. Das statische Objekt kann z.B. eine (beleuchtete) Straßenlaterne und das dynamische Objekt kann z.B. ein entgegenkommendes Fahrzeug umfassen. Durch die Lichtquellen dieser Objekte kann es zu einer Veränderung der ortsgebundenen Beleuchtungsbedingungen kommen, die bei der Ermittlung der GK und/oder LK berücksichtigt werden kann. Insbesondere kann die GK und/oder LK auch auf Basis von dem detektierten statischen oder dynamischen Objekt ermittelt werden, um die Güte der ermittelten GK und/oder LK zu erhöhen. The vehicle 100 can over the camera 101 In addition, one or more environment sensors, in particular a radar sensor and / or a lidar sensor, which are set up, environmental data relating to the environment of the vehicle 100 capture. The GK and / or the LK can then also be determined on the basis of the environmental data in order to increase the quality of the determined GK and / or LK. In particular, the method can 300 further comprising detecting, based on the environmental data, a static or a dynamic object in the environment of the vehicle 100 , the influence on the lighting situation of the picture 200 may have. For example, the static object may be an (illuminated) street lamp, and the dynamic object may include an oncoming vehicle, for example. The light sources of these objects can lead to a change in the localized illumination conditions, which can be taken into account when determining the GK and / or LK. In particular, the GK and / or LK can also be determined on the basis of the detected static or dynamic object in order to increase the quality of the determined GK and / or LK.
Das Verfahren 300 kann weiter umfassen, das Ermitteln einer erwarteten Entfernung des zu detektierenden Objektes. Die Anzahl von Pixeln 203 für die Ermittlung der LK eines Bildausschnittes 202 kann dann auf Basis der erwarteten Entfernung des zu detektierenden Objektes bestimmt werden. Insbesondere kann eine Auflösung von berücksichtigten Pixeln 203 mit sinkender erwarteter Entfernung des zu detektierenden Objektes (und einer somit steigenden Anzahl von Pixeln 203, in denen das zu detektierende Objekt dargestellt ist) reduziert werden. The procedure 300 may further comprise determining an expected distance of the object to be detected. The number of pixels 203 for determining the LK of a picture detail 202 can then be determined based on the expected distance of the object to be detected. In particular, a resolution of pixels considered can be used 203 with decreasing expected distance of the object to be detected (and a thus increasing number of pixels 203 , in which the object to be detected is shown) can be reduced.
Die Auflösung eines Bildausschnittes 202 zur Bestimmung der LK kann somit adaptiv herabgesetzt werden, insbesondere in Abhängigkeit von der Entfernung in dem das zu detektierende Objekt zu erwarten ist. Beispielsweise umfasst eine Person im Nahbereich eine hohe Anzahl von Pixeln 203, welche typischerweise nicht alle für die Bestimmung der LK benötigt werden. Hier kann durch Herabsetzen der Auflösung Rechenzeit für die Ermittlung der LK eingespart werden. Andererseits umfasst eine Person im Fernbereich typischerweise wenige Pixel 203, die nach Möglichkeit alle für die Ermittlung der LK verwendet werden sollten. Außerdem umfasst das Verfahren 300 das Durchführen 303 einer Objekterkennung innerhalb des Bildausschnittes 202. Dabei erfolgt die Objekterkennung unter Berücksichtigung der GK und/oder der LK des Bildausschnittes 202. Insbesondere kann ein Algorithmus zur Detektion eines Objektes innerhalb des Bildausschnittes 202 von der GK und/oder der LK des Bildausschnittes 202 abhängen. Durch die Berücksichtigung der GK und/oder der LK eines Bildausschnittes 202 kann die Zuverlässigkeit (d.h. die Konfidenz) der Objekterkennung substantiell verbessert werden. Dies gilt insbesondere bei nächtlichen Beleuchtungssituationen. The resolution of a picture detail 202 to determine the LK can thus be reduced adaptively, in particular depending on the distance in which the object to be detected is to be expected. For example, a close-up person includes a large number of pixels 203 which are typically not all needed for the determination of LC. Here, by reducing the resolution, computation time for the determination of the LK be saved. On the other hand, a person in the far field typically includes a few pixels 203 , which should be used, if possible, all for the determination of LK. In addition, the process includes 300 the performing 303 an object recognition within the image section 202 , In this case, the object recognition takes place taking into account the GK and / or the LK of the image section 202 , In particular, an algorithm for detecting an object within the image section 202 from the GK and / or the LK of the image section 202 depend. By taking into account the GK and / or the LK of a picture excerpt 202 For example, the reliability (ie, confidence) of the object recognition can be substantially improved. This is especially true in nocturnal lighting situations.
3b zeigt ein beispielhaftes Verfahren 310 zur Ermittlung einer lokalen Beleuchtungsklasse für einen Bildausschnitt 202. Das Verfahren 310 kann in analoger Weise für die Ermittlung einer globalen Beleuchtungsklasse für ein Bild 200 verwendet werden. Das Verfahren 310 umfasst das Ermitteln 311 von ein oder mehreren Gütemaßen auf Basis der Pixel 203 des Bildausschnittes 202. Die Gütemaße können auch als Bildmerkmale bezeichnet werden. Typischerweise werden für einen Bildausschnitt 202 mehrere Gütemaße ermittelt, die zusammen einen Merkmalsvektor des Bildausschnittes 202 darstellen. Durch den Merkmalsvektor wird die Beleuchtungssituation des Bildausschnittes 202 beschrieben. 3b shows an exemplary method 310 for determining a local illumination class for a picture detail 202 , The procedure 310 may be analogous to determining a global illumination class for an image 200 be used. The procedure 310 includes determining 311 of one or more quality measures based on the pixels 203 of the image section 202 , The quality measures can also be referred to as image features. Typically, for a picture detail 202 determined several quality measures, which together a feature vector of the image section 202 represent. By means of the feature vector, the illumination situation of the image section becomes 202 described.
Die Gütemaße dienen dazu, die Inhalte und/oder die Qualität eines Bildausschnitts 202 zu beschreiben. Ein einzelnes Gütemaß liefert meist keine direkten Informationen über die Beleuchtungsverhältnisse. Durch Interpretation beziehungsweise durch Kombination mehrerer Gütemaße kann jedoch typischerweise eine Beschreibung der Beleuchtung abgeleitet werden. The quality measures are used to the content and / or the quality of a picture 202 to describe. A single quality measure usually provides no direct information about the lighting conditions. However, by interpretation or by combining several quality measures, a description of the illumination can typically be derived.
Ein beispielhaftes Gütemaß ist ein Gütemaß ohne einen Referenzbezug, das allein auf Basis der Pixel 203 des Bildausschnitts 202 ermittelt wird. Ein weiteres beispielhaftes Gütemaß ist ein Gütemaß mit oder mit eingeschränktem Referenzbezug, welches durch Vergleich mit einer Referenz ermittelt wird. Beispielsweise kann (z.B. durch eine Gauß’sche Glättung) ein Hintergrundbild des Bildausschnittes 202 ermittelt werden, welches als Referenz verwendet werden kann. Der originale Bildausschnitt 202 kann dann mit dem Hintergrundbild verglichen werden, um ein oder mehrere Gütemaße zu ermitteln. An exemplary measure of quality is a quality measure without a reference, based solely on the pixels 203 of the image section 202 is determined. Another exemplary quality measure is a quality measure with or with limited reference, which is determined by comparison with a reference. For example, (eg by Gaussian smoothing), a background image of the image section 202 which can be used as a reference. The original image section 202 can then be compared to the background image to determine one or more quality measures.
Die Gütemaße können z.B. informationstheoretische Größen (wie z.B. die Entropie und/oder die Anisotropie) und/oder statistische Größen umfassen, welche z.B. auf Basis der Pixel 203 und insbesondere auf Basis von einem Histogramm der Helligkeit und/oder Farben der Pixel 203 eines Bildausschnitts 202 ermittelt werden können. Weitere Beispiele für Gütemaße ohne Referenzbezug sind
- • ein Unschärfemaß in Bezug auf Kanten in einem Bildausschnitt 202;
- • ein zentrales Moment, das einen Schwerpunkt von einer Helligkeitsverteilung von Bildpunkten 203 eines Bildausschnittes 202 beschreibt;
- • ein Kompressionsmaß, welches die Unschärfe und Blockbildung in einem Bildausschnitt 202 anzeigt;
- • ein Maß, welches eine statische Auswertung von DCT (diskrete Cosinustransformation) Koeffizienten des Bildausschnittes 202 umfasst.
The quality measures may include, for example, information-theoretical quantities (such as eg the entropy and / or the anisotropy) and / or statistical variables which are based, for example, on the pixels 203 and in particular based on a histogram of the brightness and / or colors of the pixels 203 a picture section 202 can be determined. Other examples of quality measures without reference are - • a blur on edges in a frame 202 ;
- • a central moment that focuses on a brightness distribution of pixels 203 a picture detail 202 describes;
- • a compression measure, which blurs and blocks in a frame 202 displays;
- A measure, which is a static evaluation of DCT (discrete cosine transformation) coefficients of the image section 202 includes.
Beispiele für Gütemaße mit Referenzbezug sind
- • ein Distanzmaß, welches z.B. einen Unterschied zwischen dem originalen Bildausschnitt 202 und dem Hintergrundbild des Bildausschnitts 202 anzeigt;
- • statistische Größen, welche aus dem originalen Bildausschnitt 202 und dem Hintergrundbild ermittelt werden;
- • ein Kontrastmaß, welches Helligkeitsunterschiede des originalen Bildausschnitts 202 und des Hintergrundbilds anzeigt;
- • Referenzbasierte Unschärfemaße; und/oder
- • Gradient-basierte Maße, welche Gradienten im originalen Bildausschnitt 202 und im Hintergrundbild vergleichen.
Examples of quality measures with reference reference are - • a distance measure, which eg a difference between the original picture detail 202 and the background image of the image section 202 displays;
- • statistical quantities, which are taken from the original image section 202 and the background image;
- • a contrast measure, which brightness differences of the original picture detail 202 and the background image;
- • reference-based blur measures; and or
- • Gradient-based measures, which gradients in the original image section 202 and compare in the background image.
Das Verfahren 310 umfasst weiter das Zuordnen 312 des Bildausschnittes 202 zu einer Beleuchtungsklasse aus einer Vielzahl von vordefinierten Beleuchtungsklassen. Die Zuordnung 312 erfolgt dabei auf Basis der ein oder mehreren ermittelten Gütemaße für den Bildausschnitt 202. Zu diesem Zweck kann ein Beleuchtungs-Klassifikator verwendet werden, der eingerichtet ist, den Merkmalsvektor eines Bildausschnittes 202 einer Beleuchtungsklasse zuzuweisen. Der Beleuchtungs-Klassifikator kann z.B. einen Bayes-Klassifikator, einen Expectation Maximization Klassifikator, einen K-Means Klassifikator und/oder einen Support Vector Machine Klassifikator umfassen. The procedure 310 further includes mapping 312 of the image section 202 to a lighting class from a variety of predefined lighting classes. The assignment 312 takes place on the basis of one or more determined quality measures for the image section 202 , For this purpose, a lighting classifier can be used which is set up, the feature vector of an image section 202 assign a lighting class. The lighting classifier may include, for example, a Bayes classifier, an Expectation Maximization classifier, a K-Means classifier, and / or a Support Vector Machine classifier.
Der Beleuchtungs-Klassifikator wird typischerweise anhand von Trainingsdaten (d.h. anhand von einem Trainings-Datensatz) angelernt. So können die Parameter des Klassifikatormodells des Klassifikators (z.B. ein Referenz-Merkmalsvektor pro Beleuchtungsklasse) bestimmt werden. Die Anlernverfahren lassen sich dabei in überwachte und unüberwachte Algorithmen einteilen. Überwachte Algorithmen verwenden einen Trainings-Datensatz, bei dem für jede Stichprobe (d.h. für jeden Bildausschnitt 202 bzw. für jedes Bild 200 des Datensatzes) bekannt ist, welcher Klasse die jeweilige Stichprobe zugeordnet ist. Die Stichproben sind „gelabelt“. Unüberwachte Algorithmen verwenden einen Datensatz, von dem das nicht bekannt ist. Eine Stichprobe ist dabei ein Bild 200 (zur Ermittlung der globalen Beleuchtungsklasse) oder Bildausschnitt 202 (zur Ermittlung der lokalen Beleuchtungsklasse), auf dem alle verwendeten Gütemaße berechnet wurden. Wie bereits oben dargelegt, können die für eine Stichprobe ermittelten Werte der Gütemaße zu einem Merkmalsvektor für diese Stichprobe zusammengefasst werden. The illumination classifier is typically learned based on training data (ie, a training dataset). Thus, the parameters of the classifier model of the classifier (eg one reference feature vector per illumination class) can be determined. The learning methods can be divided into supervised and unsupervised algorithms. Monitored algorithms use a training record in which for each sample (ie, for each frame 202 or for each picture 200 of the data record) it is known to which class the respective random sample is assigned. The samples are "labeled". Unmonitored algorithms use a record from which that is not known. A sample is a picture 200 (to determine the global illumination class) or image detail 202 (to determine the local lighting class) on which all quality measures used were calculated. As already explained above, the values of the quality measures determined for a sample can be combined into a feature vector for this sample.
Es kann somit aus dem Trainings-Datensatz eine Vielzahl von Merkmalsvektoren für die Vielzahl von Stichproben des Trainings-Datensatzes ermittelt werden. It can thus be determined from the training record a plurality of feature vectors for the plurality of samples of the training record.
Wenn die Beleuchtungsklassen der Vielzahl von Stichproben bekannt sind (im Falle eines überwachten Algorithmus) können so für jede Beleuchtungsklasse eine Vielzahl von Merkmalsvektoren ermittelt werden, welche die entsprechende Beleuchtungsklasse repräsentiert. Beispielsweise kann so für jede Beleuchtungsklasse ein Referenz-Merkmalsvektor ermittelt werden (z.B. als Mittelwert der Vielzahl von Merkmalsvektoren dieser Beleuchtungsklasse). Die Referenz-Merkmalsvektoren können dann von dem Beleuchtungs-Klassifikator zur Klassifikation verwendet werden. Beispielsweise kann der Beleuchtungs-Klassifikator zur Klassifikation einer ersten Stichprobe, für die die Beleuchtungsklasse nicht bekannt ist, einen ersten Merkmalsvektor dieser ersten Stichprobe mit den Referenz-Merkmalsvektoren vergleichen, und den Referenz-Merkmalsvektor ermitteln, welcher dem ersten Merkmalsvektor am nächsten kommt (gemäß einem vordefinierten Abstandsmaß). Die erste Stichprobe kann dann der Beleuchtungsklasse zugeordnet werden, die dem ermittelten Referenz-Merkmalsvektor entspricht. If the illumination classes of the plurality of samples are known (in the case of a monitored algorithm), a plurality of feature vectors can be determined for each illumination class, which represents the corresponding illumination class. For example, a reference feature vector may thus be determined for each illumination class (e.g., as the average of the plurality of feature vectors of that illumination class). The reference feature vectors may then be used by the illumination classifier for classification. For example, to classify a first sample for which the illumination class is not known, the illumination classifier may compare a first feature vector of that first sample with the reference feature vectors, and determine the reference feature vector closest to the first feature vector (according to FIG predefined distance measure). The first sample can then be assigned to the illumination class that corresponds to the determined reference feature vector.
Es kann somit mittels des Verfahrens 310 in effizienter und zuverlässiger Weise die Beleuchtungsklasse eines Bildes 200 bzw. eines Bildausschnitts 202 ermittelt werden. Die GK und LK eines Bildausschnittes 202 können dann dazu verwendet werden, eine an die Beleuchtungssituation des Bildausschnittes 202 angepasste Objekterkennung durchzuführen. Desweiteren kann auf Basis der GK und der LK eines Bildausschnitts 202 die zu erwartende Qualität, d.h. die Zuverlässigkeit, der Objekterkennung ermittelt werden (siehe dazu das Verfahren 400). It can thus by means of the method 310 efficiently and reliably the lighting class of an image 200 or a picture detail 202 be determined. The GK and LK of a picture excerpt 202 can then be used to one to the lighting situation of the image 202 perform customized object detection. Furthermore, based on the GK and the LK of a picture detail 202 the expected quality, ie the reliability, of the object recognition are determined (see the procedure 400 ).
Die Objekterkennung in einem Bildausschnitt 202 kann auf Basis einer Deskriptor-Klassifikator-Kombination erfolgen. Dabei wird ein Deskriptor des Bildausschnitts 202 dazu verwendet, den dargestellten Inhalt des Bildausschnitts 202 zu beschreiben. Anhand der durch den Deskriptor bereitgestellten Beschreibung eines Bildausschnittes 202 akzeptiert oder verwirft der Klassifikator für einen bestimmten Bildausschnitt 202 die Hypothese, ob ein Objekt (z.B. eine Person) in dem Bildausschnitt 202 vorliegt. Dieser Klassifikator wird in diesem Dokument auch als Objekt-Klassifikator bezeichnet. The object recognition in a picture detail 202 can be based on a descriptor-classifier combination. This will be a descriptor of the image section 202 used to display the displayed content of the image section 202 to describe. Based on the description provided by the descriptor of a picture detail 202 accepts or discards the classifier for a particular frame 202 the hypothesis of whether an object (eg a person) in the image detail 202 is present. This classifier is also referred to as an object classifier in this document.
3c zeigt ein beispielhaftes Verfahren 320 zur Erkennung eines Objektes in einem Bildausschnitt 202. Das Verfahren 320 umfasst das Ermitteln 321 von einem Deskriptor für den Bildausschnitt 202. Dabei kann ein bestimmtes Deskriptor-Modell verwendet werden. Beispielhafte Deskriptor-Modelle sind das HOG-Modell (Histogram of oriented Gradients) und das LBP-Modell (local binary patterns). 3c shows an exemplary method 320 for detecting an object in a picture detail 202 , The procedure 320 includes determining 321 from a descriptor for the image section 202 , A specific descriptor model can be used. Exemplary descriptor models are the HOG (Histogram of Oriented Gradients) model and the LBP model (Local Binary Patterns).
Das HOG-Modell ist ein gradientenbasierter Ansatz, das heißt, das HOG-Modell erfasst die Form der zu detektierenden Objekte. Auf Basis der Grauwerde bzw. der Farbwerte der Pixel 203 eines Bildausschnittes 202 werden für die einzelnen Pixel 203 Helligkeits-Gradienten bzw. Farb-Gradienten ermittelt. Desweiteren können für jedes Pixel 203 die Richtungen des maximalen und/oder minimalen Helligkeits-Gradienten bzw. Farb-Gradienten ermittelt werden. The HOG model is a gradient-based approach, that is, the HOG model captures the shape of the objects to be detected. Based on the gray values or the color values of the pixels 203 a picture detail 202 be for each pixel 203 Brightness gradient or color gradient determined. Furthermore, for every pixel 203 the directions of the maximum and / or minimum brightness gradient or color gradient are determined.
Das Verfahren bestimmt als Merkmalsvektor ein zellenweises Histogramm der Gradientenrichtungen. Zum Berechnen des Merkmalsvektors wird ein Bildausschnitt 202 in sich überlappende Blöcke eingeteilt. Jeder Block besteht wiederum aus einer bestimmten Anzahl von Zellen, die wiederum aus mehreren Pixeln 203 bestehen. Die Zellen überlappen sich nicht, schließen aber bündig aneinander an. Es können quadratische Blöcke sowie Zellen gewählt, auch wenn der Bildausschnitt 202 nicht quadratisch ist. Für jeden Pixel 203 wird in vertikaler und horizontaler Bildrichtung der Gradient bestimmt. Aus diesen Größen lassen sich über bekannte Formeln die Stärke sowie die Orientierung des Gradienten berechnen. Daraus wird für jede Zelle ein Histogramm der Gradientenrichtungen erstellt. Die Richtungen sind dazu in gleichabständige Werte diskretisiert. Üblicherweise sind die diskretisierten Werte nur auf den Halbkreis von 0° bis 180° bezogen, das bedeutet, dass nicht unterschieden wird, ob der Gradient einen Helligkeitsübergang von dunkel zu hell oder andersrum beschreibt. Die Histogrammeinträge werden mit der zugehörigen Gradientenstärke gewichtet. Alle Histogramme eines Blockes werden anschließend normalisiert. Zur Normalisierung wird ein bestimmtes Normierungsverfahren, wie zum Beispiel die L2-Norm, auf alle Histogrammeinträge des Blocks angewendet. Da die Blocknormalisierung von den Gradientenstärken abhängt, führt dies zu einem Ausgleich zwischen Blöcken mit höherem sowie niedrigem Kontrast. Liegen einzelne Blockwerte höher als eine vorgegebene Schwelle, werden diese zuvor auf den Schwellwert begrenzt. Die Aneinanderkettung der Histogramme aller Zellen eines Bildausschnitts 202 bildet den Deskriptor des Bildausschnitts 202. The method determines as feature vector a cell-wise histogram of the gradient directions. To compute the feature vector, an image section 202 divided into overlapping blocks. Each block in turn consists of a certain number of cells, which in turn consist of several pixels 203 consist. The cells do not overlap but are flush with each other. You can choose square blocks as well as cells, even if the image section 202 not square. For every pixel 203 the gradient is determined in the vertical and horizontal image direction. From these quantities, the strength and orientation of the gradient can be calculated using known formulas. From this, a histogram of the gradient directions is created for each cell. The directions are discretized into equidistant values. Usually, the discretized values are related only to the semicircle of 0 ° to 180 °, which means that it is not discriminated whether the gradient describes a brightness transition from dark to light or vice versa. The histogram entries are weighted with the associated gradient strength. All histograms of a block are then normalized. For normalization, a specific normalization method, such as the L2 standard, is applied to all histogram entries in the block. Since the block normalization depends on the gradient strengths, this results in a balance between blocks with higher and lower contrast. If individual block values are higher than a predefined threshold, they are previously limited to the threshold value. The concatenation of the histograms of all cells of an image section 202 forms the descriptor of the image section 202 ,
Alternativ oder ergänzend kann das LBP-Modell als Deskriptor verwendet werden. Wie auch das HOG-Modell basiert es auf der Auswertung von Grauwertunterschieden der Pixel 203 eines Bildausschnitts 202. Der Deskriptor besteht dabei aus einem blockweise zusammengesetzten Histogramm mit einer Angabe über das Vorzeichen der Grauwertdifferenzen der Pixel 203 in einem Block. Alternatively or additionally, the LBP model can be used as a descriptor. Like the HOG model, it is based on the evaluation of gray value differences of the pixels 203 a picture section 202 , The descriptor consists of a block-wise assembled histogram with an indication of the sign of the gray value differences of the pixels 203 in a block.
Das Verfahren 320 umfasst weiter das Zuordnen 322 des Bildausschnittes 202 zu einer Objektklasse. Die Zuordnung erfolgt dabei auf Basis des Deskriptors des Bildausschnittes 202. Für die Zuordnung kann ein Objekt-Klassifikator verwendet werden. Beispielhafte Klassifikatoren sind ein Bayes-Klassifikator, ein Expectation Maximization Klassifikator, ein K-Means Klassifikator und/oder ein Support Vector Machine Klassifikator. Der Klassifikator kann anhand von einem Trainings-Datensatz angelernt werden (analog zu den für den Beleuchtungs-Klassifikator beschriebenen Anlernverfahren, wobei die Deskriptoren der Bildausschnitte 202 die analoge Funktion zu den o.g. Merkmalsvektoren eines Beleuchtungs-Klassifikators aufweisen). The procedure 320 further includes mapping 322 of the image section 202 to an object class. The assignment is based on the descriptor of the image section 202 , An object classifier can be used for the assignment. Exemplary classifiers include a Bayes classifier, an expectation maximization classifier, a k-means classifier, and / or a support vector machine classifier. The classifier can be learned based on a training record (analogous to the learning method described for the illumination classifier, wherein the descriptors of the image sections 202 have the analogous function to the above-mentioned feature vectors of a lighting classifier).
Für den Objekt-Klassifikator kann ein Sicherheitswert definiert werden. Dies gilt insbesondere für einen binären Objekt-Klassifikator, der in binärer Weise angibt, ob ein Bildausschnitt 202 ein Objekt enthält oder nicht. Der Sicherheitswert kann dazu verwendet werden, die Zuverlässigkeit des Objekt-Klassifikators einzustellen. Insbesondere kann der Sicherheitswert dazu verwendet werden, ein Gleichgewicht zwischen Falschklassifikationen (bei denen ein Bildausschnitt 202, welcher tatsächlich kein Objekt darstellt, fälschlicherweise als Bildausschnitt mit einem detektierten Objekt klassifiziert wird, auch als sogenannter False Positive bezeichnet) und Fehlklassifikationen (bei denen ein Bildausschnitt 202, welcher tatsächlich ein Objekt darstellt, fälschlicherweise als Bildausschnitt ohne Objekt klassifiziert wird, auch als sogenannter False Negativ bezeichnet) einzustellen. A security value can be defined for the object classifier. This is especially true for a binary object classifier that indicates in binary form whether a frame is 202 contains an object or not. The security value can be used to set the reliability of the object classifier. In particular, the security value can be used to balance false classifications (where an image detail 202 , which in fact does not represent an object, is falsely classified as an image detail with a detected object, also referred to as a so-called false positive) and misclassifications (in which a picture detail 202 , which actually represents an object that is falsely classified as an image section without an object, also referred to as a so-called false negative).
Beispielsweise kann der Objekt-Klassifikator einen Referenz-Deskriptor umfassen, der auf Basis von Trainings-Daten ermittelt wurde. Zur Klassifikation eines ersten Bildausschnittes 202 kann ein erster Deskriptor des ersten Bildausschnittes 202 mit dem Referenz-Deskriptor verglichen werden. Insbesondere kann ein Abstand zwischen dem ersten Deskriptor und dem Referenz-Deskriptor (gemäß einem vordefinierten Abstandsmaß) ermittelt werden. Es kann dann bestimmt werden, ob der ermittelte Abstand gleich wie oder kleiner als ein vordefinierter Abstands-Schwellenwert ist. Ist dies der Fall, so kann der erste Bildausschnitt 202 als ein Bildausschnitt 202 mit detektiertem Objekt klassifiziert werden. Andererseits kann der erste Bildausschnitt 202 als ein Bildausschnitt 202 ohne Objekt klassifiziert werden. Der Abstands-Schwellenwert kann von dem Sicherheitswert abhängen. Über den Sicherheitswert kann somit ein Verhältnis zwischen Falschklassifikationen und Fehlklassifikationen verschoben werden. For example, the object classifier may include a reference descriptor determined based on training data. For the classification of a first image section 202 can be a first descriptor of the first image section 202 be compared with the reference descriptor. In particular, a distance between the first descriptor and the reference descriptor (according to a predefined distance measure) can be determined. It may then be determined whether the determined distance is equal to or less than a predefined distance threshold. If this is the case, then the first image section 202 as a picture section 202 be classified with detected object. On the other hand, the first image section 202 as a picture section 202 to be classified without an object. The distance threshold may depend on the security value. The safety value can thus be used to shift the relationship between false classifications and misclassifications.
Somit kann mit dem Verfahren 320 in effektiver und präziser Weise, ermittelt werden, ob sich in einem bestimmten Bildausschnitt 202 eines Bildes 200 ein Objekt (z.B. eine Person) befindet oder nicht. Die Zuverlässigkeit der Objekterkennung kann dadurch erhöht werden, dass das Objekterkennungsverfahren, welches für einen bestimmten Bildausschnitt 202 angewendet wird, von der Beleuchtungssituation dieses Bildausschnittes 202 (d.h. insbesondere von der GK und/oder der LK dieses Bildausschnittes 202) abhängt. Thus, with the method 320 In an effective and accurate way, it can be determined whether in a particular frame 202 a picture 200 an object (eg a person) is or is not. The reliability of the object recognition can be increased by the fact that the object recognition method, which is suitable for a specific image section 202 is applied, of the lighting situation of this image detail 202 (ie in particular from the GK and / or the LK of this image section 202 ) depends.
Beispielsweise können ein oder mehrere der folgenden Parameter des Objekterkennungsverfahrens von der Beleuchtungssituation des Bildausschnittes 202 abhängen:
- • das verwendete Deskriptor-Modell (z.B. HOG-Modell, LDP-Modell, Haar/Edgelet-Wavelets-Modell, etc.);
- • die verwendete Auflösung eines Deskriptors;
- • der Typ des Objekt-Klassifikators (z.B. Bayes-Klassifikator, Expectation Maximization Klassifikator, K-Means Klassifikator, Support Vector Machine Klassifikator, etc.); und/oder
- • die Trainingsdaten, welche zum Anlernen des Objekt-Klassifikators verwendet werden.
For example, one or more of the following parameters of the object recognition method may be dependent on the illumination situation of the image detail 202 depend: - • the descriptor model used (eg HOG model, LDP model, Haar / Edgelet wavelets model, etc.);
- • the used resolution of a descriptor;
- • the type of the object classifier (eg Bayes classifier, expectation maximization classifier, K-means classifier, support vector machine classifier, etc.); and or
- • the training data used to teach the object classifier.
Mit anderen Worten, es wird in diesem Dokument ein Verfahren 300 zur Erkennung eines Objektes auf Basis eines Bildes 202 (z.B. eines Grauwertbildes) beschrieben. Für unterschiedliche Beleuchtungssituationen werden unterschiedliche diskrete Beleuchtungskategorien (d.h. Beleuchtungsklassen), wie z.B. Tag Sonne, Tag Schatten, Nacht mit Straßenlampen, Nacht ohne Beleuchtung, etc., definiert. Auf Basis der Pixel 203 eines Bildausschnittes 202 können Gütemaße, wie z.B. Unschärfemaße, Anisotropie, zentrale Momente, etc., ermittelt werden, um die Beleuchtungssituation des Bildausschnittes 202 zu beschreiben. Desweiteren wird auf Basis der Pixel 203 eines Bildausschnittes 202 ein Deskriptor, wie z.B. ein HOG-, LBP-, und/oder Haar/Edgelet-Wavelets-Deskriptor, ermittelt, um den Bildausschnitt 202 in Bezug auf ein zu erkennendes Objekt zu beschreiben. In other words, this document becomes a procedure 300 to recognize an object based on an image 202 (eg a gray value image) described. For different lighting situations, different discrete lighting categories (ie lighting classes), such as day sun, day shadow, night with street lamps, night without lighting, etc., are defined. Based on the pixels 203 a picture detail 202 For example, quality measures, such as blur measurements, anisotropy, central moments, etc., can be determined in order to determine the lighting situation of the image section 202 to describe. Furthermore, based on the pixels 203 a picture detail 202 a descriptor, such as a HOG, LBP, and / or Haar / Edgelet wavelet descriptor, is determined to obtain the image detail 202 to describe in relation to an object to be recognized.
Mittels der Kamera 101 wird ein Bild 200 erfasst. Dabei bestehen typischerweise keine Einflussmöglichkeiten darauf, welche Blende oder Belichtungszeit die Kamera 101 verwendet. Entsprechend ergeben sich von Bild zu Bild unterschiedliche Belichtungen. Diese Belichtungen werden auch durch die Beleuchtung in der Umgebung beeinflusst. Die Beleuchtungssituationen können sich somit von Bild zu Bild verändern. By means of the camera 101 becomes a picture 200 detected. There are typically no possibilities for influencing which aperture or exposure time the camera 101 used. Accordingly, different exposures result from image to image. These exposures are also affected by the lighting in the area. The lighting situations can thus change from picture to picture.
Es kann die Beleuchtungskategorie der abgebildeten Umgebung im Bild 200 ermittelt werden. Dazu wird für das gesamte Bild 200 ein Merkmalsvektor mit Gütemaßen berechnet und nach den Beleuchtungskategorien klassifiziert (anhand eines Beleuchtungs-Klassifikators). Es kann somit eine globale Beleuchtungsklasse (GK) für das Bild 200 ermittelt werden. Der Merkmalsvektor enthält dabei als Eintrag ein oder mehrere Gütemaße zur Beschreibung der Beleuchtungssituation des Bildes 200. It can be the lighting category of the imaged environment in the picture 200 be determined. This is for the entire picture 200 a feature vector is calculated with quality measures and classified according to the lighting categories (using a lighting classifier). It can thus provide a global illumination class (GK) for the image 200 be determined. The feature vector contains as an entry one or more quality measures for the description of the lighting situation of the image 200 ,
Desweiteren wird durch ein Sliding-Window-Verfahren in analoger Weise für eine Vielzahl von Bildausschnitten 202 eine lokale Beleuchtungsklassifikation ermittelt. Mit anderen Worten, es können für die Vielzahl von Bildausschnitten 202 die lokalen Beleuchtungsklassen (LK) ermittelt werden. Die LKs der Vielzahl von Bildausschnitten 202 können auf der Bildfläche angezeigt werden und ergeben so eine „Heatmap“ hinsichtlich der Ausleuchtung des Bildes 200. Furthermore, by a sliding window method in a similar manner for a plurality of image sections 202 a local lighting classification determined. In other words, it can be used for the large number of image sections 202 the local lighting classes (LK) are determined. The LKs of the large number of image sections 202 can be displayed on the screen, resulting in a "heat map" regarding the illumination of the image 200 ,
Wie oben dargelegt, kann eine Vielzahl von unterschiedlichen Gütemaßen für einen Bildausschnitt 202 bzw. für das Bild 200 ermittelt werden. Dabei kann anhand von Hauptkomponentenanalyse und/oder anhand von Support Vector Machine(SVM)-Klassifizierung ermittelt werden, welche der unterschiedlichen Gütemaße für die Bewertung der globalen bzw. der lokalen Beleuchtungssituation relevant sind. Es kann somit eine möglichst kleine Anzahl von Gütemaßen für den Merkmalsvektor ermittelt werden, durch die dennoch ein möglicher Merkmalsraum möglichst vollständig beschrieben werden kann. Mit anderen Worten, durch eine geschickte Auswahl der Gütemaße für einen Merkmalsvektor kann die Dimension des Merkmalsvektors reduziert werden, mit einem minimalen Einfluss auf die Genauigkeit der Beleuchtungsklassifikation. Somit kann der Rechenaufwand der Beleuchtungsklassifikation reduziert werden. As stated above, a variety of different quality measures may be used for a frame 202 or for the picture 200 be determined. It can be determined based on principal component analysis and / or Support Vector Machine (SVM) classification, which of the different quality measures for the assessment of the global or the local lighting situation are relevant. It is thus possible to determine the smallest possible number of quality measures for the feature vector, by means of which, nevertheless, a possible feature space can be described as completely as possible. In other words, by judiciously choosing the quality measures for a feature vector, the dimension of the feature vector can be reduced with minimal impact on the accuracy of the illumination classification. Thus, the computational effort of the illumination classification can be reduced.
Abhängig von der erkannten globalen und lokalen Beleuchtungskategorie können unterschiedliche Objekt-Klassifikatoren angewendet werden, um zu Ermitteln, ob und ggf. welches Objekt sich in einem Bildausschnitt 202 befindet. Zu diesem Zweck kann für einen Trainings-Datensatz mit einheitlichen Beleuchtungsverhältnissen ein Objekt-Klassifikator angelernt werden. Dies erfolgt bevorzugt für Datensätze aus allen Beleuchtungskategorien. Für relativ niedrige Beleuchtungsverhältnisse (z.B. für eine Nacht-Klasse) können kantenbasierte Merkmale wie HOG oder LBP mit einer relativ geringen Auflösung des Detektorfensters verwendet werden. Für relativ hohe Beleuchtungsverhältnisse (z.B. für eine Tag-Klasse) sind aufgrund der größeren Detailtiefe feinere Auflösungen des Detektorfensters zu bevorzugen. Außerdem sind in solchen Fällen auch texturbasierte Merkmale als Deskriptor geeignet. Depending on the detected global and local lighting category, different object classifiers may be applied to determine if and which object is in a frame 202 located. For this purpose, an object classifier can be trained for a training record with uniform lighting conditions. This is preferably done for data sets from all lighting categories. For relatively low lighting conditions (eg, for a night class), edge-based features such as HOG or LBP can be used with a relatively low resolution of the detector window. For relatively high illumination conditions (eg for a tag class), finer resolutions of the detector window are to be preferred due to the greater detail depth. In addition, texture-based features are also suitable as descriptors in such cases.
Das Verfahren 300 ermöglicht somit durch die Ermittlung und die Berücksichtigung der Beleuchtungssituation, eine erhöhte Qualität der Personendetektion im Vergleich zu anderen Klassifikatoren. Es kann somit ein höherer Anteil der auf einem Bild 200 abgebildeten Personen erkannt werden. Desweiteren kann die Zahl der Zuordnungen von anderen Objekten zu der Gruppe der detektierten Personen (d.h. die Anzahl von sogenannten „False Positives“) reduziert werden. Außerdem kann durch die Wahl eines (für die Beleuchtungssituation) geeigneten Objekt-Klassifikators die Komplexität der Objektdetektion reduziert werden. Insbesondere müssen nicht mehrere Objekt-Klassifikatoren verwendet werden, um eine möglichst optimale Erkennungsquote zu erzielen. Somit kann die Rechenzeit zum Erreichen der höchstmöglichen Erkennungsquote reduziert werden. The procedure 300 Thus, through the determination and the consideration of the lighting situation, an increased quality of the person detection in comparison to other classifiers is possible. It can thus be a higher proportion of the one picture 200 recognized persons are recognized. Furthermore, the number of assignments of other objects to the group of detected persons (ie the number of so-called "false positives") can be reduced. In addition, the choice of a (for the lighting situation) suitable object classifier, the complexity of the object detection can be reduced. In particular, multiple object classifiers do not have to be used in order to achieve the best possible recognition rate. Thus, the computing time to achieve the highest possible recognition rate can be reduced.
Wie oben dargelegt, können zur Ermittlung einer lokalen bzw. einer globalen Beleuchtungssituation eine Vielzahl von Gütemaße ermittelt werden. Um die Zahl von erforderlichen Gütemaßen zu reduzieren, können Verfahren wie die Hauptkomponentenanalyse oder Support Vector Machine verwendet werden, um eine relevante Untermenge von Gütemaßen zu ermitteln, durch die (nahezu) der gesamte Informationsgehalt der Gesamtmenge an Gütemaßen wiedergegeben wird. So kann der Rechenaufwand zur Ermittlung einer Beleuchtungsklasse substantiell reduziert werden. As stated above, a plurality of quality measures can be determined to determine a local or a global lighting situation. In order to reduce the number of quality measures required, methods such as the principal component analysis or support vector machine may be used to determine a relevant subset of quality measures representing (almost) the total information content of the total quantity of quality measures. Thus, the computational effort to determine a lighting class can be substantially reduced.
Das Hauptkomponentenanalyse-(PCA, principal component analysis)Verfahren ist ein Transformationsverfahren, bei der eine multivariate Größe durch sogenannte Hauptkomponenten dargestellt wird. Eine Hauptkomponente wird dabei durch Linearkombination der Elemente der ursprünglichen Darstellung gebildet. Diese tragen zu jeder Hauptkomponente unterschiedlich stark bei. Die Gewichte werden so ermittelt, dass möglichst viele Eigenschaften der ursprünglichen Darstellung erhalten bleiben. The principal component analysis (PCA) method is a transformation method in which a multivariate size is represented by so-called major components. A main component is formed by linear combination of the elements of the original representation. These contribute to each major component different degrees. The weights are determined so that as many properties of the original representation remain.
Die Transformationsparameter von der ursprünglichen Darstellung zu den Hauptkomponenten werden aus den Eigenvektoren der Kovarianzmatrix der ursprünglichen Darstellung ermittelt. Dabei wird versucht, die Kovarianz zwischen den Daten zu maximieren. Das führt zu einem niedrigen Zusammenhang und somit hohem Informationsgehalt der einzelnen Elemente. Somit können alle Informationen der ursprünglichen Darstellung durch möglichst wenige Elemente in der neuen Darstellung abgebildet werden. Die zugehörigen Eigenwerte enthalten eine Aussage über die Relevanz einer jeden Hauptkomponente. The transformation parameters from the original representation to the main components are determined from the eigenvectors of the covariance matrix of the original representation. It tries to maximize the covariance between the data. This leads to a low connection and thus high information content of the individual elements. Thus, all information of the original representation can be represented by as few elements as possible in the new representation. The associated eigenvalues contain a statement about the relevance of each main component.
Zur Datenreduktion kann die Hauptkomponentenanalyse mit allen Gütemaß-Vektoren einer Bildsequenz (d.h. eines Trainings-Datensatzes) berechnet werden. Um keinen Informationsverlust in Kauf nehmen zu müssen, werden so viele Hauptkomponenten gewählt, wie ein Gütemaß-Vektor Elemente hat. Daraus werden diejenigen Gütemaße bestimmt, welche den größten Beitrag zu den Hauptkomponenten leisten. Mit dieser Information können weniger relevante Gütemaße verworfen und die Beleuchtungsklassifikation ausschließlich auf die relevanten Gütemaße beschränkt werden. Um die relevanten Gütemaße zu ermitteln, kann über alle Hauptkomponenten ein Histogramm erstellt werden, welches die Häufigkeit einzelner Gütemaße erfasst. Dazu wird der Absolutbetrag des Gewichtungsfaktors eines jeden Gütemaßes über alle Hauptkomponenten aufaddiert. Die höchsten Werte im Histogramm entsprechen denjenigen Gütemaßen, welche den wichtigsten Beitrag zu den Hauptkomponenten liefern. Es wird dabei angenommen, dass der Beitrag zu den Hauptkomponenten eine Aussage über die Relevanz eines Gütemaßes liefert. Somit werden diejenigen Gütemaße als am meisten relevant angesehen, welche den größten Beitrag aufweisen For data reduction, the principal component analysis can be calculated with all the quality-of-measure vectors of a picture sequence (ie a training record). To avoid loss of information in Having to take purchase, as many major components are chosen as a measure of quality vector has elements. From this, those quality measures are determined which make the largest contribution to the main components. With this information, less relevant quality measures can be discarded and the illumination classification can be restricted exclusively to the relevant quality measures. In order to determine the relevant quality measures, a histogram can be created for all main components, which records the frequency of individual quality measures. For this purpose, the absolute value of the weighting factor of each quality measure is added up over all main components. The highest values in the histogram correspond to the quality measures which provide the most important contribution to the main components. It is assumed that the contribution to the main components provides a statement about the relevance of a quality measure. Thus, those quality measures that are the most relevant are considered most relevant
Bei dem SVM-Verwahren wird diejenige Hyperebene bestimmt, die den größtmöglichen Abstand zwischen den Merkmalsvektoren unterschiedlicher Klassen aufweist. Diese Ebene dient als Trennebene zur Klassifikation von Merkmalsvektoren in die eine oder die andere Klasse. Sie wird durch Stützvektoren („support vectors“) bestimmt. Die Stützvektoren sind aus beiden Klassen diejenigen Merkmalsvektoren, die jeweils den geringsten Abstand zur Trennebene aufweisen. Zur Beschreibung der Trennebene sind die anderen Merkmalsvektoren somit nicht nötig. SVM preservation determines the hyperplane that has the greatest possible distance between the feature vectors of different classes. This level serves as a separation level for classifying feature vectors into one or the other class. It is determined by support vectors. The support vectors from both classes are those feature vectors that each have the smallest distance to the separation plane. For describing the parting plane, the other feature vectors are thus not necessary.
Neben dem Standardfall der Zwei-Klassen-SVM existiert eine Ein-Klassen-SVM. Die Trennebene der Ein-Klassen SVM gibt dabei an, ob ein Element der trainierten Klasse zuzuordnen ist oder nicht. Dieser Ansatz kann beispielsweise dann angewendet werden, wenn sich eine Klasse gut beschreiben lässt, nicht jedoch die möglichen Abweichungen, die dann nicht mehr der Klasse zugeordnet werden sollen. In addition to the standard case of two-class SVM, there is a one-class SVM. The separation level of the one-class SVM indicates whether an element is to be assigned to the trained class or not. This approach can be used, for example, if a class can be well described, but not the possible deviations, which should then no longer be assigned to the class.
Zur Datenreduktion kann eine solche Ein-Klassen-SVM verwendet werden. Dabei wird für jedes Gütemaß ein Vektor über alle Bilder einer Sequenz (d.h. eines Trainings-Datensatzes) erstellt. Diese Sequenz enthält Bilder aller Beleuchtungsklassen. Die Gütemaß-Vektoren bilden schließlich die Merkmalsvektoren der SVM, aus denen anschließend die Trennebene bestimmt wird. Die Stützvektoren werden dann als die relevanten Gütemaße angesehen, um die Beleuchtungsklassen beschreiben zu können. Alle Gütemaße, die nicht als Stützvektoren dienen, können als nicht relevant betrachtet werden. For data reduction, such a one-class SVM can be used. In doing so, for each quality measure, a vector is created over all images of a sequence (i.e., a training dataset). This sequence contains images of all lighting classes. The quality measure vectors finally form the feature vectors of the SVM, from which the separation plane is then determined. The support vectors are then considered to be the relevant quality measures to describe the lighting classes. All quality measures that do not serve as support vectors can be considered irrelevant.
Es kann somit anhand einer Hauptkomponentenanalyse und/oder mittels eines Support Vector Machine-Verfahrens die möglichst kleine Anzahl von Gütemaßen ermittelt werden, durch die der Raum von möglichen Beleuchtungssituationen möglichst umfassend beschrieben werden kann. It is thus possible on the basis of a principal component analysis and / or by means of a support vector machine method to determine the smallest possible number of quality measures by which the space of possible lighting situations can be described as comprehensively as possible.
Wie bereits oben dargelegt, ist es häufig erforderlich, eine Aussage über die Zuverlässigkeit einer Objekterkennung zu treffen. Die Zuverlässigkeit kann anhand von ein oder mehreren Zuverlässigkeitsmaßen angezeigt werden. Die Zuverlässigkeitsmaße können in zwei Gruppen eingeteilt werden, wobei die erste Gruppe von Zuverlässigkeitsmaßen eine Aussage bezüglich der Zuverlässigkeit für jede ermittelte Klasse liefert und wobei die zweite Gruppe von Zuverlässigkeitsmaßen eine Aussage bezüglich der Zuverlässigkeit für das Gesamtsystem der Objekterkennung liefert. Die Berechnungsgrundlage für die Zuverlässigkeit sind typischerweise drei Größen, die durch Vergleich von Stichproben mit einer a-priori bekannten Klassenzuweisung und den Klassifikationsergebnissen für dieselben Stichproben bestimmt werden. Daraus lassen sich für jede Klasse die Zahl bzw. der Anteil der korrekten Zuordnungen ermitteln (TP, engl. “true positive”). Außerdem lassen sich für jede Klasse die Zahl bzw. der Anteil an Stichproben ermitteln, die einer falschen Klasse zugeordnet werden, obwohl sie tatsächlich den Referenzdaten einer anderen Klasse angehören. Diese Angabe bezeichnet man als FN (engl. “false negative”), da das Klassifikationsergebnis von solchen Stichproben aus Sicht einer bestimmten Klasse fälschlicherweise negativ ist. Dies wird auch als Fehler zweiter Art oder als Fehlklassifikation bezeichnet. Ein Fehler erster Art (oder als Falschklassifikation) hingegen liegt vor, wenn der Klassifikator einer bestimmten Klasse eine Stichprobe zuordnet, die tatsächlich jedoch einer anderen Klasse angehört. Diese Angabe wird auch als FP (engl. “false positive”) bezeichnet. Aus diesen Angaben lassen sich unterschiedliche Zuverlässigkeitsmaße ableiten. Die Zuverlässigkeitsmaße geben typischerweise eine Wahrscheinlichkeit an und weisen somit Werte von 0% bis 100% auf, wobei die Zuverlässigkeit mit sinkendem Prozentwert sinkt. As already stated above, it is often necessary to make a statement about the reliability of an object recognition. The reliability can be indicated by one or more confidence measures. The reliability measures can be divided into two groups, the first group of reliability measures providing a statement of reliability for each determined class, and the second group of reliability measures providing a statement of reliability for the overall system of object detection. The reliability baseline is typically three sizes determined by comparing samples with a priori class assignment and the classification results for the same samples. From this, the number or the proportion of correct assignments can be determined for each class (TP, "true positive"). In addition, for each class, you can determine the number or proportion of samples assigned to a wrong class, even though they actually belong to the reference data of another class. This information is referred to as FN (false negative) because the classification result of such samples is erroneously negative from the perspective of a particular class. This is also referred to as a second type error or misclassification. A first type error (or misclassification), on the other hand, occurs when the classifier assigns a sample to a particular class, but actually belongs to a different class. This information is also known as FP (false positive). From this information, different reliability measures can be derived. The confidence measures typically indicate a probability and thus have values from 0% to 100%, the reliability decreasing as the percentage decreases.
Ein beispielhaftes Zuverlässigkeitsmaß ist die Korrektklassifikationsrate (OA, Overall Accuracy). Dieses Maß gibt an, wie groß der Anteil an korrekten Klassifikationsergebnissen an allen Stichproben ist. Für einen Zwei-Klassen-Klassifikator lässt sie sich folgendermaßen berechnen: OA = TP + TN / TP + TN + FP + FN An exemplary measure of reliability is the correct classification rate (OA, Overall Accuracy). This measure indicates the proportion of correct classification results for all samples. For a two-class classifier, it can be calculated as follows: OA = TP + TN / TP + TN + FP + FN
Ein weiteres beispielhaftes Zuverlässigkeitsmaß ist die Fehlerrate (E, Error Rate). Diese Größe gibt den Anteil an Fehlern an den Klassifikationsergebnissen an. Dabei spielt es keine Rolle, ob es ein Fehler erster oder zweiter Art ist. Für einen Zwei-Klassen-Klassifikator lässt sie sich folgendermaßen berechnen: E = FP + FN / TP + TN + FP + FN. Another exemplary measure of reliability is the error rate (E, Error Rate). This size indicates the proportion of errors in the classification results. It does not matter if it's a first or second type error. For a two-class classifier, it can be calculated as follows: E = FP + FN / TP + TN + FP + FN.
Weitere beispielhafte Zuverlässigkeitsmaße sind Precision (P) und Recall (R). Precision beschreibt den Anteil an korrekt klassifizierten positiven Stichproben an allen als positiv detektierten Stichproben: P = TP / TP + FP. Other exemplary reliability measures are Precision (P) and Recall (R). Precision describes the proportion of correctly classified positive samples on all positive detected samples: P = TP / TP + FP.
Der Recall hingegen setzt die korrekt positiven Stichproben einer Klasse ins Verhältnis zu den tatsächlichen Stichproben derselben Klasse: R = TP / TP + FN. The recall, on the other hand, sets the correct positive samples of a class relative to the actual samples of the same class: R = TP / TP + FN.
Weitere beispielhafte Zuverlässigkeitsmaße sind User’s Accuracy (UA) und Producer’s Accuracy (PA). Die User’s Accuracy gibt das Verhältnis zwischen der Zahl an korrekt klassifizierten Stichproben einer Klasse und der Gesamtzahl der Stichproben, die korrekt oder fälschlicherweise dieser Klasse zugeordnet wurden. Dieses Maß gibt die Wahrscheinlichkeit an, dass eine Stichprobe auch tatsächlich derjenigen Klasse zugehört, die der Klassifikator gewählt hat. Die Producer’s Accuracy ergibt sich aus dem Verhältnis der Zahl an korrekt klassifizierten Stichproben einer Klasse und der Gesamtzahl an tatsächlichen Stichproben dieser Klasse. Sie gibt somit die Wahrscheinlichkeit an, dass eine Referenzstichprobe korrekt klassifiziert wurde. Dieses Maß trägt seinen Namen, weil es für den Entwickler eines Klassifikators angibt, wie gut eine bestimmte Klasse erkannt werden kann, während für den Anwender die User’s Accuracy eine höhere Wichtigkeit hat. User’s und Producer’s Accuracy können als klassenweise Interpretation von Precision und Recall interpretiert werden. Further exemplary reliability measures are user's accuracy (UA) and producer's accuracy (PA). User's Accuracy gives the ratio between the number of correctly classified samples of a class and the total number of samples correctly or incorrectly assigned to that class. This measure indicates the probability that a sample actually belongs to the class that the classifier chose. The Producer's Accuracy is the ratio of the number of correctly classified samples in a class and the total number of actual samples in that class. It thus indicates the probability that a reference sample was correctly classified. This measure is named because it tells the developer of a classifier how well a particular class can be recognized, while the user's accuracy is more important to the user. User's and Producer's Accuracy can be interpreted as a classwise interpretation of Precision and Recall.
Zur Ermittlung von Qualitätsaussagen über einen Klassifikator kann eine sogenannte Validierung durchgeführt werden. Dabei wird der Klassifikator auf einen Test-Datensatz angewendet, der ungleich von dem Trainings-Datensatz sein sollte, mit dem der Klassifikator angelernt wurde. Aus den Klassifikationsergebnissen für den Test-Datensatz werden ein oder mehrere der o.g. Zuverlässigkeitsmaße bestimmt. Die Größe des Test-Datensatzes kann z.B. etwa 20% der Größe des Trainings-Datensatzes sein. To determine quality statements via a classifier, a so-called validation can be carried out. The classifier is applied to a test record, which should be different from the training record with which the classifier was trained. From the classification results for the test data set one or more of the above-mentioned Reliability measures determined. The size of the test record may be e.g. about 20% of the size of the training record.
Wie oben dargelegt, können in Abhängigkeit von der Beleuchtungssituation eines Bildausschnittes 202 unterschiedliche Deskriptor-Klassifikator-Kombinationen verwendet werden. Für jede der verwendeten Deskriptor-Klassifikator-Kombinationen können ein oder mehrere Zuverlässigkeitsmaße ermittelt werden. Die ein oder mehreren Zuverlässigkeitsmaße können dabei mittels eines Test-Datensatzes ermittelt werden, welcher Test-Bildausschnitte 202 mit bestimmten Beleuchtungssituationen umfasst. Das heißt, für jede mögliche Beleuchtungssituation können ein oder mehrere Zuverlässigkeitsmaße ermittelt werden, die anzeigen, mit welcher Qualität oder mit welcher Zuverlässigkeit oder mit welcher Konfidenz ein Objekt bei Vorliegen einer entsprechenden Beleuchtungssituation detektiert werden kann. Insbesondere kann eine Tabelle bzw. ein Look-Up Table (LUT) ermittelt werden, welche für jede Beleuchtungssituation, z.B. für jede Kombination aus GK und LK, ein oder mehrere Zuverlässigkeitsmaße angeben. As stated above, depending on the lighting situation of an image section 202 different descriptor-classifier combinations are used. For each of the descriptor-classifier combinations used, one or more confidence measures can be determined. The one or more reliability measures can be determined by means of a test data set, which test image sections 202 with certain lighting situations. That is, one or more reliability measures can be determined for each possible lighting situation, which indicate with which quality or with which reliability or with which confidence an object can be detected in the presence of a corresponding lighting situation. In particular, a table or a look-up table (LUT) can be determined, which specify one or more reliability measures for each illumination situation, eg for each combination of GK and LK.
4 zeigt ein beispielhaftes Verfahren 400 zur Ermittlung eines Zuverlässigkeitsmaßes für die Objekterkennung in einem Bildausschnitt 202. Wie bereits in Zusammenhang mit den 3a, 3b, und 3c dargelegt, können für ein Bild 200 und für die verschiedenen Bildausschnitte 202 eines Bildes 200 mittels eines Beleuchtungs-Klassifikators Beleuchtungssituationen ermittelt werden. Insbesondere können für jeden Bildausschnitt 202 eine Kombination aus einer globalen Beleuchtungsklasse (GK) und einer lokalen Beleuchtungsklasse (LK) ermittelt werden. Dies kann für eine Vielzahl von Bildern 200 eines Test-Datensatzes erfolgen. Die Verknüpfung einer bestimmten globalen und einer bestimmten lokalen Beleuchtungsklasse kann als „Beleuchtungskombination“ bezeichnet werden. 4 shows an exemplary method 400 for determining a reliability measure for the object recognition in a picture detail 202 , As already related to the 3a . 3b , and 3c set out for a picture 200 and for the different parts of the picture 202 a picture 200 be determined by means of a lighting classifier lighting situations. In particular, for each image section 202 a combination of a global lighting class (GK) and a local lighting class (LK) can be determined. This can be for a variety of pictures 200 of a test record. The combination of a particular global and a particular local lighting class may be referred to as a "lighting combination".
Für unterschiedliche Beleuchtungssituationen können unterschiedliche Objekt-Klassifikatoren verwendet werden. Dabei können insbesondere die verwendeten Merkmale (d.h. Deskriptoren) zur Objektdetektion angepasst werden (z.B. HOG, LBP, Haar/Edgelet-Wavelets, etc.). Alternativ oder ergänzend können die verwendeten Klassifikatoren angepasst werden (z.B. SVM, Bayes-Klassifikator, Neuronales Netz, etc.). Desweiteren können die verwendeten Trainings-Datensätze an die Beleuchtungssituationen angepasst werden. Different object classifiers can be used for different lighting situations. In particular, the features used (i.e., descriptors) may be adapted for object detection (e.g., HOG, LBP, Haar / Edgelet wavelets, etc.). Alternatively or additionally, the classifiers used may be adapted (e.g., SVM, Bayes classifier, neural network, etc.). Furthermore, the training data sets used can be adapted to the lighting situations.
Die Konfidenz stellt ein Maß für die Zuverlässigkeit eines Klassifikators dar und kann z.B. durch die o.g. Maße UA, PA und/oder OA ausgedrückt werden. Die Konfidenz kann mittels eines Test-Datensatzes auf zwei Arten bestimmt werden. Erstens kann eine gemeinsame Aussage für alle verwendeten Objekt-Klassifikatoren, d.h. nicht getrennt für jeden Klassifikator, ermittelt werden. Zweitens kann für jede Beleuchtungskombination getrennt eine Konfidenz ermittelt werden. The confidence represents a measure of the reliability of a classifier and may be e.g. through the o.g. Dimensions UA, PA and / or OA are expressed. The confidence can be determined by means of a test dataset in two ways. First, a common statement for all object classifiers used, i. not separately for each classifier. Secondly, a confidence can be determined separately for each illumination combination.
Für die Ermittlung der Konfidenz kann ein Look-Up-Table bestimmt werden. Dazu wird eine relativ hohe Anzahl (z.B. mehrere Hundert) von lokalen Bildausschnitten 202 aus jeder Beleuchtungsklasse als Test-Datensatz verwendet. Dabei entsprechen die verwendeten Bildausschnitte 202 Bereichen mit Korrekt-, Fehl- oder Falschdetektionen des Objekt-Klassifikators. Für jede globale und lokale Beleuchtungskombination können für den gesamten Test-Datensatz die Kenngrößen TP, FP und FN ermittelt werden. Daraus können dann z.B. die Zuverlässigkeitsmaße UA, PA und OA abgeleitet werden. To determine the confidence, a look-up table can be determined. For this purpose, a relatively high number (eg several hundred) of local image sections 202 from each lighting class used as a test record. The image sections used correspond to this 202 Areas with correct, false or false detections of the object classifier. For any global and local lighting combination, for the entire test Dataset the parameters TP, FP and FN are determined. From this, for example, the reliability measures UA, PA and OA can be derived.
Das Ergebnis ist wie folgt, je nach Art der Konfidenz:
- • Für einen gesamten Test-Datensatz eine zusammenfassende Konfidenzaussage über die Eignung des Objekterkennungssystems eine bestimmte Objektart zu erkennen, unabhängig davon, welcher Objekt-Klassifikator in einem bestimmten Bild 200 oder Bildausschnitt 202 verwendet wurde. Das Objekterkennungssystem umfasst dabei den in diesem Dokument beschriebenen Beleuchtungs-Klassifikator und Objekt-Klassifikator.
- • Eine Konfidenzaussage für eine bestimmte globale und lokale Beleuchtungskombination. Diese Aussage kann gegebenenfalls auf mehrere Test-Datensätze bezogen sein, wenn mehrere Test-Datensätze verarbeitet wurden.
The result is as follows, depending on the type of confidence: - For a whole test record, a summary confidence statement about the object recognition system's ability to recognize a particular object type, regardless of which object classifier in a given image 200 or picture detail 202 has been used. The object recognition system comprises the illumination classifier and the object classifier described in this document.
- • A confidence statement for a specific global and local lighting combination. This statement may be related to multiple test records if multiple test records have been processed.
Es kann somit ein Look-Up-Table bereitgestellt werden, der für jede Beleuchtungskombination Werte für UA, PA und OA umfasst. Thus, a look-up table can be provided which includes values for UA, PA and OA for each illumination combination.
Wird ein Objekt-Klassifikator auf ein Bild 200 angewandt, so tastet der Objekt-Klassifikator während des Sliding-Window-Verfahrens alle Bildausschnitte 202 ab. Für jeden Bildausschnitt 202 lässt sich eine Beleuchtungskombination (d.h. eine GK und eine LK) ermitteln (Verfahrensschritte 401, 402 des Verfahrens 400). Desweiteren kann die Look-Up-Tabelle in Abhängigkeit von der ermittelten Beleuchtungskombination ausgewertet werden (Verfahrensschritt 403). Insbesondere kann aus der Look-Up-Tabelle für jeden Bildausschnitt 202 eine Aussage über die Konfidenz ermittelt 403 werden, mit der der für diese Beleuchtungskombination verwendete Objekt-Klassifikator die Detektion in diesem Bildausschnitt 202 durchführen kann. Es wird somit stets der für die Beleuchtungskombination geeignete Objekt-Klassifikator zugrundegelegt. Damit ist bereits vor Berechnung des Objekt-Klassifikators für einen Bildausschnitt 202 eine Aussage über die zu erwartende Konfidenz möglich. Desweiteren lässt sich, wenn das o.g. Verfahren für einen gesamten Test-Datensatz angewendet wird, ohne Ausführen der Objektklassifikation eine Beurteilung des jeweils geeigneten Objekt-Klassifikators für diesen Test-Datensatz ableiten. Is an object classifier on an image 200 applied, the object classifier scans all image sections during the sliding window process 202 from. For every picture section 202 a combination of illumination (ie a GK and a LK) can be determined (method steps 401 . 402 of the procedure 400 ). Furthermore, the look-up table can be evaluated as a function of the determined illumination combination (method step 403 ). In particular, from the look-up table for each picture detail 202 a statement about the confidence determined 403 with the object classifier used for this illumination combination, the detection in this image section 202 can perform. It is therefore always based on the suitable for the lighting combination object classifier. This is already before calculation of the object classifier for a picture detail 202 a statement about the expected confidence possible. Furthermore, if the above-mentioned method is applied to an entire test data set, it is possible to derive a judgment of the respectively suitable object classifier for this test data set without executing the object classification.
Das o.g. Verfahren ermöglicht es somit zu ermitteln, welche Beleuchtungskombinationen Objektdetektionen mit höherer Sicherheit erlauben und welche nicht. Somit können die vorhandenen Ressourcen zur Objektdetektion (z.B. Rechenzeit) besser eingeteilt werden. Insbesondere ist es möglich, den Suchraum des Objekterkennungssystems einzuschränken. In Bereichen mit sehr niedriger erwarteter Konfidenz kann davon ausgegangen werden, dass keine Detektion möglich sein wird. Somit können andere Bereiche, in denen eine höhere Konfidenz zu erwarten ist, höher priorisiert werden. The o.g. The method thus makes it possible to determine which lighting combinations allow object detections with higher security and which do not. Thus, the existing resources for object detection (e.g., computation time) can be better classified. In particular, it is possible to restrict the search space of the object recognition system. In areas of very low expected confidence, it can be assumed that no detection will be possible. Thus, other areas where higher confidence is expected can be prioritized higher.
Die Kamera 101 des Fahrzeugs 100 kann eine Stereo-Kamera umfassen, die eingerichtet ist, an einem bestimmten Zeitpunkt, d.h. zeitgleich, ein linkes Bild 501 und ein rechtes Bild 502 zu erfassen (siehe 5a). Das linke Bild 501 und das rechte Bild 502 stellen dabei das gleiche Umfeld des Fahrzeugs 100 aus leicht unterschiedlichen Blickwinkeln dar. Dies ermöglicht es, Informationen bzgl. des Abstands von Objekten zu ermitteln, die auf den Bildern 501, 502 dargestellt sind. Insbesondere kann auf Basis des linken Bildes 501 und des rechten Bildes 502 ein Disparitätsbild 503 ermittelt werden. The camera 101 of the vehicle 100 may include a stereo camera that is set up at a particular time, ie, at the same time, a left image 501 and a right picture 502 to capture (see 5a ). The left picture 501 and the right picture 502 put the same environment of the vehicle 100 from slightly different angles. This makes it possible to obtain information regarding the distance of objects that appear on the images 501 . 502 are shown. In particular, based on the left image 501 and the right picture 502 a disparity picture 503 be determined.
Disparität ist eine Größe, die indirekt proportional ist zur Entfernung der Objekte von der Kamera 101. In einem Disparitätsbild 503 ist somit erkennbar, welche Objekte näher an der Kamera 101 oder weiter von der Kamera 101 entfernt sind. Das Koordinatensystem des Disparitätsbildes 503 stimmt dabei typischerweise mit dem Koordinatensystem von rektifizierten Bildern 501, 502 (z.B. Grauwertbildern) des Stereokamerasystems 101 überein. Disparity is a quantity that is indirectly proportional to the distance of the objects from the camera 101 , In a disparity picture 503 is thus recognizable which objects closer to the camera 101 or further from the camera 101 are removed. The coordinate system of the disparity image 503 typically agrees with the coordinate system of rectified images 501 . 502 (eg grayscale images) of the stereo camera system 101 match.
Wie oben dargelegt, gibt es bei der Objektdetektion zwei Arten von Fehlern. Zum einen die Fehlklassifikation (d.h. die FN, False Negatives) und zum anderen die Falschklassifikation (d.h. die FP, False Positives). Diese sind über einen Sicherheitswert des Objekt-Klassifikators voneinander abhängig. Zur Evaluierung eines Objekt-Klassifikators bestimmt man eine Schwelle für den Sicherheitswert, ab dem Detektionen als gültig angesehen werden. Das bedeutet, je höher die Schwelle für den Sicherheitswert gewählt wird, desto weniger Falschklassifikationen (FP) treten auf, dafür aber umso mehr Fehlklassifikationen (FN). Es ist somit nicht möglich, beide Fehler zu reduzieren, es muss eine Abwägung getroffen werden, wozu z.B. eine Precision-Recall-Kurve verwendet werden kann. Im Folgenden wird ein davon unabhängiges Verfahren beschrieben, welches das Disparitätsbild 503 dazu verwendet, die Zahl der Falschklassifikationen (FP) zu reduzieren, ohne dabei die Zahl der Fehlklassifikationen (FN) zu erhöhen. Das Verfahren setzt nach Anwenden des Objekt-Klassifikators an und prüft jede Detektion eines Objektes. Mit anderen Worten, es kann jede „positive“ Detektion überprüft werden. As stated above, there are two types of errors in object detection. On the one hand the misclassification (ie the FN, False Negatives) and on the other the misclassification (ie the FP, False Positives). These are dependent on each other via a security value of the object classifier. To evaluate an object classifier, one determines a threshold for the safety value at which detections are considered valid. This means that the higher the threshold for the security value, the fewer false classifications (FP) occur, but the more misclassifications (FN) occur. It is therefore not possible to reduce both errors, a balance must be made, for which purpose, for example, a precision recall curve can be used. The following describes a method independent of this, which describes the disparity picture 503 used to reduce the number of false classifications (FP) without increasing the number of misclassifications (FN). The method starts after applying the object classifier and checks every detection of an object. In other words, any "positive" detection can be checked.
Von dem Objekt-Klassifikator wird erkannt, dass ein erster Bildausschnitt 202 ein Objekt umfasst. Je nach Zuverlässigkeit des Objekt-Klassifikators kann es sich dabei mit einer bestimmten Wahrscheinlichkeit um eine Falschklassifikation (FP) handeln. Anhand des Disparitätsbilds 503 können derartige Falschklassifikationen (zumindest teilweise) detektiert werden. Zu diesem Zweck kann die Größe des ersten Bildausschnittes 202 (z.B. die Höhe 211 und/oder die Breite 212) betrachtet werden. Desweiteren können auf Basis des Disparitätsbildes 503 für diesen ersten Bildausschnitt 202 Informationen bezgl. der Entfernung des detektierten Objekts in diesem ersten Bildausschnitt 202 ermittelt werden. Es kann dann eine Plausibilitätsprüfung durchgeführt werden, bei der beurteilt wird, ob ein detektiertes Objekt in der ermittelten Entfernung eine dem ersten Bildausschnitt 202 entsprechende Größe aufweisen kann. Beispielsweise wird überprüft, ob eine detektierte Person in der ermittelten Entfernung eine dem ersten Bildausschnitt 202 entsprechende Größe (Höhe 211 und/oder Breite 212) aufweisen kann. Ist dies nicht der Fall, so kann bestimmt werden, dass es sich bei dem ersten Bildausschnitt 202 um eine Falschklassifikation handelt. Es können somit unpassende Detektionen verworfen werden. Wird zugleich die o.g. Sicherheitsschwelle reduziert, so können sowohl die Fehlklassifikationen als auch die Falschklassifikationen reduziert werden. The object classifier recognizes that a first image detail 202 includes an object. Depending on the reliability of the object classifier, a certain probability can be a false classification (FP). Based on the disparity picture 503 can such misclassifications (at least in part) be detected. For this purpose, the size of the first image section 202 (eg the height 211 and / or the width 212 ) to be viewed as. Furthermore, based on the disparity picture 503 for this first image section 202 Information concerning the distance of the detected object in this first image section 202 be determined. A plausibility check can then be carried out in which it is judged whether a detected object at the determined distance is one of the first image detail 202 may have the appropriate size. For example, it is checked whether a detected person at the determined distance a the first image section 202 appropriate size (height 211 and / or width 212 ). If this is not the case, it can be determined that it is the first image section 202 is a misclassification. Thus, inappropriate detections can be discarded. If at the same time the above-mentioned safety threshold is reduced, then both the misclassifications and the false classifications can be reduced.
Zur Bestimmung der metrischen Größe einer Detektion kann zunächst das umschließende Rechteck des ersten Bildausschnittes 202 in das Disparitätsbild 503 projiziert werden. Das Rechteck enthält im Fall der korrekten Detektion einer Person deren Abbildung sowie einen gewissen Hintergrundanteil. Da die Bilder typischerweise im selben Koordinatensystem vorliegen, sind keine Transformationen notwendig. Anschließend wird ein Disparitätswert der Abbildung der Person bestimmt. Dazu wird der Hintergrundanteil im umschließenden Rechteck (d.h. im ersten Bildausschnitt 202) bestimmt und verworfen. Bei einer korrekten Detektion kann angenommen werden, dass sich die Person deutlich vor Objekten im Bildhintergrund befindet und somit einen höheren Disparitätswert aufweist als der Hintergrund. To determine the metric size of a detection, first the enclosing rectangle of the first image section 202 into the disparity picture 503 be projected. In the case of the correct detection of a person, the rectangle contains its image as well as a certain amount of background. Since the images are typically in the same coordinate system, no transformations are necessary. Subsequently, a disparity value of the person's image is determined. For this, the background portion in the enclosing rectangle (ie in the first image section 202 ) determined and discarded. With a correct detection, it can be assumed that the person is clearly in front of objects in the image background and thus has a higher disparity value than the background.
Um den Hintergrundanteil zu bestimmen, kann ein Histogramm 520 für die Disparitätswerte des ersten Bildausschnittes 202 angelegt werden (siehe 5c). Dabei kann erwartet werden, dass der Hintergrund kleinere Disparitätswerte aufweist als die detektierte Person. Desweiteren kann erwartet werden, dass sowohl der Hintergrund als auch die detektierte Person jeweils ähnliche Disparitätswerte aufweisen. Die Verteilung der Disparitätswerte des Hintergrunds und der Person weisen jeweils lokale Maxima im Histogramm 520 auf. Durch einen sogenannten Peakiness-Test kann das Minimum 521 zwischen diesen Maxima bestimmt werden. Dieser Test ermittelt relevante Minima zwischen zwei Maxima anhand des Verhältnisses der Histogrammeinträge. Alle Disparitätswerte kleiner als die Disparität des Minimums 521 werden dem Hintergrund zugerechnet. Für alle verbleibenden Disparitätswerte im umschließenden Rechteck wird z.B. der Median (oder ggf. ein Mittelwert) ermittelt. Es wird somit aus den Disparitätswerten, die nicht dem Hintergrund zugewiesen werden, ein Disparitätswert D für das detektierte Objekt ermittelt. Dieser Disparitätswert D kann mit Hilfe von Orientierungsparametern der Kamera 101 in eine Entfernungsangabe d für das detektierte Objekt (insbesondere für die detektierte Person) von der Kamera 101 umgewandelt werden. Dabei können als Orientierungsparameter der Kamera 101 der Abstand, d.h. die Basislinie, zwischen der linken und der rechten Kamera, sowie eine Fokallänge der Kamera 101 berücksichtigt werden. To determine the background part, you can use a histogram 520 for the disparity values of the first image section 202 be created (see 5c ). It can be expected that the background has smaller disparity values than the detected person. Furthermore, it can be expected that both the background and the detected person each have similar disparity values. The distribution of the disparity values of the background and the person each have local maxima in the histogram 520 on. By a so-called peakiness test, the minimum 521 be determined between these maxima. This test determines relevant minima between two maxima based on the ratio of histogram entries. All disparity values less than the disparity of the minimum 521 are assigned to the background. For example, for all remaining disparity values in the enclosing rectangle, the median (or possibly an average) is determined. It is thus determined from the disparity values that are not assigned to the background, a disparity value D for the detected object. This disparity value D can be determined with the aid of orientation parameters of the camera 101 in a distance indication d for the detected object (in particular for the detected person) from the camera 101 being transformed. It can be used as orientation parameter of the camera 101 the distance, ie the baseline, between the left and right camera and a focal length of the camera 101 be taken into account.
Desweiteren können die Höhe 211 und die Breite 212 des Bildausschnitts 202 mittels der Entfernung d für das detektierte Objekt und mittels ein oder mehrerer Orientierungsparameter der Kamera 101 (z.B. der Fokallänge der Kamera 101) in metrische Größen (z.B. eine metrische Höhe und eine metrische Breite) des detektierten Objektes umgewandelt werden. Diese metrischen Größen des detektierten Objektes können dann mit typischen Größen des zu detektierenden Objektes verglichen werden. Wenn die metrischen Größen des detektierten Objektes außerhalb von einem zulässigen Wertebereich liegen, so kann der detektierte Bildausschnitt 202 als eine Falschklassifikation betrachtet werden. Furthermore, the height 211 and the width 212 of the image section 202 by means of the distance d for the detected object and by means of one or more orientation parameters of the camera 101 (eg the focal length of the camera 101 ) are converted into metric sizes (eg, a metric height and a metric width) of the detected object. These metric magnitudes of the detected object can then be compared with typical magnitudes of the object to be detected. If the metric variables of the detected object are outside of a permissible value range, then the detected image section 202 be considered as a misclassification.
5b zeigt ein beispielhaftes Verfahren 510 zur Klassifikation eines Bildausschnitts 202. Das Verfahren 510 umfasst das Ermitteln 511 eines Disparitätswertes D für eine Bildausschnitt 202. Der Disparitätswert kann wie oben dargelegt ermittelt werden. Desweiteren umfasst das Verfahren 510 das Ermitteln 512 der Größe 211, 213 des Bildausschnitts 202. Der Bildausschnitt 202 kann dann auf Basis des Disparitätswerts und auf Basis der Größe des Bildausschnittes 202 klassifiziert 513 werden. Insbesondere kann ermittelt werden, ob ein Bildausschnitt 202 tatsächlich ein zuvor detektiertes Objekt aufweist oder nicht. 5b shows an exemplary method 510 for the classification of a picture detail 202 , The procedure 510 includes determining 511 a disparity value D for a picture detail 202 , The disparity value can be determined as set out above. Furthermore, the method includes 510 the determining 512 the size 211 . 213 of the image section 202 , The picture section 202 can then be based on the disparity value and on the size of the image detail 202 classified 513 become. In particular, it can be determined whether a picture detail 202 actually has a previously detected object or not.
Es wird somit vorgeschlagen, die zeitsynchrone Aufnahme eines linken Bildes 501 und eines rechten Bildes 502 durch eine Kamera 101 zu nutzen, um Falschklassifikationen zu reduzieren. Dazu können die aufgenommenen Bilder 501, 502 anhand der Orientierungsparameter des Kamerasystems 101 rektifiziert werden. Desweiteren kann aus dem linken und rechten rektifizierten Bild 501, 502 ein Disparitätsbild 503 ermittelt werden. It is thus proposed that the time-synchronized recording of a left image 501 and a right picture 502 through a camera 101 to reduce misclassifications. These can be the captured images 501 . 502 based on the orientation parameters of the camera system 101 be rectified. Furthermore, from the left and right rectified image 501 . 502 a disparity picture 503 be determined.
Durch ein Sliding-Window-Verfahren kann zumindest auf einem der beiden Bilder 501, 502 eine Objektdetektion mit einem Deskriptor-Klassifikator-Verfahren durchgeführt werden (z.B. wie in diesem Dokument beschrieben). Dabei kann das rechte oder das linke Stereobild 501, 502 verwendet wird. Für jede Detektion eines Objektes kann ein Sicherheitswert ermittelt bzw. zugrunde gelegt werden. Desweiteren kann die Größe 211, 212 des Bildausschnittes 202 ermittelt werden, in dem ein Objekt detektiert wurde. Through a sliding window process, at least one of the two images 501 . 502 object detection may be performed using a descriptor classifier technique (eg, as described in this document). This can be the right or the left stereo image 501 . 502 is used. For each detection of an object, a safety value can be determined or used as a basis. Furthermore can the size 211 . 212 of the image section 202 be determined in which an object was detected.
Für alle Detektionen, deren Sicherheitswert über einer vordefinierten Sicherheitsschwelle liegen, kann die metrische Größe des entsprechenden Bildausschnittes 202 bestimmt werden. Es kann dann geprüft werden, ob diese metrische Größe mit realen Größenangaben von dem zu detektierenden Objekt (z.B. von einem Menschen) übereinstimmt. Falls dies zutrifft, kann die Detektion als gültig angesehen werden, andernfalls kann die Detektion verworfen werden. For all detections whose safety value is above a predefined safety threshold, the metric size of the corresponding image section 202 be determined. It can then be checked whether this metric size agrees with real size information of the object to be detected (eg of a human). If so, the detection may be considered valid, otherwise the detection may be discarded.
Für die Ermittlung der metrischen Größe des Bildausschnittes 202 einer Detektion wird aus den Grauwert-/Farb-Bildern 501, 502 ein dem Bildausschnitt 202 entsprechender Ausschnitt aus dem Disparitätsbild 503 ermittelt. Dazu werden typischerweise die Orientierungsparameter der Kamera 101 verwendet. Der Bildausschnitt 202 (auch als Boundingbox bezeichnet) befindet sich somit im Disparitätsbild 503 an einer korrespondierenden Stelle zu den Grauwert-/Farbbildern 501, 502. For determining the metric size of the image section 202 a detection becomes from the grayscale / color images 501 . 502 a picture section 202 corresponding section of the disparity image 503 determined. These are typically the orientation parameters of the camera 101 used. The picture section 202 (Also called Boundingbox) is thus in Disparitätsbild 503 at a corresponding location to the gray scale / color images 501 . 502 ,
Falls ein Objekt korrekt erkannt wurde, befinden sich in dem Bildausschnitt 202 im Disparitätsbild 503 die Abbildung des Objektes sowie ein gewisser Hintergrundbereich um das Objekt herum. Beim Hintergrund kann davon ausgegangen werden, dass dessen Entfernung zur Kamera 101 größer ist als die Entfernung des detektierten Objektes. Somit weist der Hintergrund niedrigere Disparitätswerte auf. Für den Bildausschnitt 202 kann ein Histogramm 520 aus den Disparitätswerten erstellt werden. Ziel ist es dabei, den korrekten Disparitätswert des detektierten Objektes zu ermitteln. Dazu wird der Median der Pixel 203 des Disparitätsbildes 503 berechnet, die dem detektierten Objekt zugerechnet werden können. Zu diesem Zweck wird im Histogramm 520 das markanteste Minimum 521 bestimmt. Alle Disparitätswerte kleiner der Disparität am Minimum 521 werden dem Hintergrund zugerechnet und werden von der weiteren Verarbeitung ausgeschlossen. If an object has been detected correctly, they are in the image section 202 in the disparity picture 503 the image of the object as well as a certain background area around the object. When background can be assumed that its distance to the camera 101 is greater than the distance of the detected object. Thus, the background has lower disparity values. For the picture section 202 can be a histogram 520 be created from the disparity values. The aim is to determine the correct disparity value of the detected object. For this, the median of the pixels 203 the disparity picture 503 calculated, which can be attributed to the detected object. For this purpose, in the histogram 520 the most striking minimum 521 certainly. All disparity values less than disparity at minimum 521 are assigned to the background and are excluded from further processing.
Aus dem Median der der Person zugerechneten Disparitätswerte wird anhand der Orientierungsparameter ein Wert für die Entfernung d des Objektes von der Kamera 101 ermittelt. Mit Hilfe der Entfernungsangabe d wird die Größe 211, 212 des Bildausschnitts 202 in metrische Einheiten umgerechnet. Auch dazu werden typischerweise Orientierungsparameter der Kamera 101 verwendet. So kann ein Vergleich mit metrischen Größenangaben für reale Objekte erfolgen. From the median of the disparity values attributed to the person, a value for the distance d of the object from the camera is calculated from the orientation parameters 101 determined. With the help of the distance indication d the size becomes 211 . 212 of the image section 202 converted into metric units. Again, typically orientation parameters of the camera 101 used. Thus, a comparison can be made with metric size specifications for real objects.
Die dem Objekt zugeordneten Pixel 203 aus dem Disparitätsbild 503 können nicht nur zur Bestimmung der Entfernung d verwendet werden, sondern es können zusätzlich die Form, Statur und/oder Struktur der dem Objekt zugeordneten Pixel 203 untersucht werden. Insbesondere kann überprüft werden, ob die Struktur des detektierten Objektes mit einer typischen Soll-Struktur des Objektes übereinstimmt. Somit können ggf. Falschklassifikationen weiter reduziert werden. The pixel associated with the object 203 from the disparity picture 503 not only can be used to determine the distance d, but in addition the shape, stature and / or structure of the pixel associated with the object 203 to be examined. In particular, it can be checked whether the structure of the detected object coincides with a typical target structure of the object. Thus, if necessary, false classifications can be further reduced.
Das markante Minimum 521 im Histogramm 520 kann mit dem sogenannten Peakiness-Test bestimmt werden. Dazu werden die zwei höchsten Maxima im Histogramm 520 bestimmt und dazwischen das „globale“ Minimum 521 ermittelt. Das Verhältnis der Werte zwischen dem höheren Maximum und dem Minimum beschreibt den Grad der Relevanz eines Minimums. Anschließend wird das höchste Maximum von der weiteren Berechnung ausgeschlossen. Dieser Algorithmus wird iterativ angewandt, bis die neu erkannten Minima als nicht mehr relevant angesehen werden im Vergleich zu den bereits ermittelten relevantesten Minima. The striking minimum 521 in the histogram 520 can be determined by the so-called peakiness test. In addition the two highest maxima in the histogram become 520 determined and in between the "global" minimum 521 determined. The ratio of the values between the higher maximum and the minimum describes the degree of relevance of a minimum. Subsequently, the highest maximum is excluded from the further calculation. This algorithm is applied iteratively until the newly detected minima are considered no longer relevant compared to the most relevant minima already determined.
Durch die Verwendung des Disparitätsbildes 503 kann die Sicherheitsschwelle für die Detektionen niedriger angesetzt werden als ohne Verwendung des Disparitätsbildes 503. Unsichere Detektionen, die bisher verworfen werden mussten, um die Zahl der Falschklassifikationen gering zu halten, können nun der oben beschriebenen Größen- und/oder Formprüfung unterzogen und daraufhin akzeptiert oder verworfen werden. Es können somit sowohl Falschklassifikationen als auch Fehlklassifikationen reduziert werden. By using the disparity image 503 For example, the security threshold for the detections may be set lower than without using the disparity image 503 , Insecure detections, which previously had to be discarded to keep the number of false classifications low, can now be subjected to the size and / or shape check described above and then accepted or discarded. Thus, both misclassifications and misclassifications can be reduced.
Desweiteren sind Einschränkung des Suchraums für den Objekt-Klassifikator möglich, da Detektorfenster (d.h. Bildausschnitte 202) mit zu geringer oder zu großer metrischer Größe für eine zu detektierende Objektart verworfen werden können, noch bevor der Klassifikator angewendet wird. Das heißt, noch vor Anwendung des Objekt-Klassifikators auf einen Bildausschnitt 202 kann auf Basis des Disparitätsbildes 503 ermittelt werden, ob sich in dem Bildausschnitt 202 aufgrund der Größe und/oder der Form überhaupt ein zu detektierendes Objekt befinden kann. Der Objekt-Klassifikator kann dann nur auf Bildausschnitte 202 angewandt werden, für die eine derartige Vorauswahl zu einem positiven Ergebnis gekommen ist. Es kann somit die Abfolge von der in diesem Dokument beschriebenen Disparitätsanalyse und der Objektklassifikation umgekehrt werden. So kann der Rechenaufwand für die Objektklassifikation reduziert werden. Furthermore, restriction of the search space for the object classifier is possible since detector windows (ie image sections 202 ) can be discarded with too small or too large a metric size for an object type to be detected even before the classifier is applied. That is, before applying the object classifier to a frame 202 can based on the disparity picture 503 be determined, whether in the image section 202 due to the size and / or the shape can be located at all an object to be detected. The object classifier can then only on image sections 202 applied, for which such a preselection has come to a positive conclusion. Thus, the sequence of the disparity analysis described in this document and the object classification can be reversed. Thus, the computational effort for the object classification can be reduced.
Desweiteren verwendet die in diesem Dokument beschriebene Disparitätsanalyse Informationen des Disparitätsbildes 503 ohne direkt einen Objekt-Klassifikator auf das Disparitätsbild 503 anzuwenden. Dies ist vorteilhaft, da eine direkte Anwendung aufgrund der geringeren Auflösung des Disparitätsbildes 503 (im Vergleich zu den Grau-/Farb-Bildern 501, 502) nachteilig wäre. Furthermore, the disparity analysis described in this document uses information of the disparity image 503 without direct an object classifier on the disparity image 503 apply. This is advantageous because a direct application due to the lower resolution of the Disparitätsbildes 503 (compared to the gray / color images 501 . 502 ) would be disadvantageous.
Wie bereits oben dargelegt, wird für die Evaluierung eines Objekt-Klassifikators typischerweise ein Test-Datensatz verwendet, wobei sich der Test-Datensatz von dem Trainings-Datensatz, mit dem der Objekt-Klassifikator angelernt wurde, unterscheidet. Im Rahmen der Evaluierung sollen z.B. anhand des Test-Datensatzes ein oder mehrere Zuverlässigkeitsmaße für den Objekt-Klassifikator ermittelt werden. As already stated above, a test data set is typically used for the evaluation of an object classifier, wherein the test data record differs from the training data record with which the object classifier was trained. In the context of the evaluation, e.g. One or more reliability measures for the object classifier can be determined on the basis of the test data record.
Im Rahmen der Entwicklung von geeigneten Objekt-Klassifikatoren wäre es vorteilhaft, den Evaluierungsaufwand für einen Objekt-Klassifikator reduzieren zu können, ohne dabei die Aussagekraft der ermittelten ein oder mehreren Zuverlässigkeitsmaße zu reduzieren. Typischerweise steigt die Detektionsgüte eines Objekt-Klassifikators mit steigender Auflösung von Testbildern 200 an. Mit steigender Auflösung steigt aber auch der Rechenaufwand für die Evaluierung des Objekt-Klassifikators. In the context of the development of suitable object classifiers, it would be advantageous to be able to reduce the evaluation effort for an object classifier, without reducing the validity of the determined one or more reliability measures. Typically, the detection quality of an object classifier increases with increasing resolution of test images 200 at. As the resolution increases, however, the computational effort for the evaluation of the object classifier also increases.
Eine Möglichkeit zur Reduzierung des Evaluierungsaufwands wäre es, die Anzahl von Test-Bildern 200 in einem Test-Datensatz zu reduzieren. Die Detektionsqualität eines Objekt-Klassifikators steigt jedoch typischerweise mit der Zahl der getesteten Test-Bildern 200. Somit ist die Mindestzahl an erforderlichen Test-Bildern 200 für eine zuverlässige Evaluierung typischerweise relativ hoch. Die Konsequenz ist, dass bei einer zu geringen Anzahl von Test-Bildern 200 keine zuverlässige Aussage über die Konfidenz eines Klassifikators möglich ist. One way to reduce the evaluation effort would be to increase the number of test images 200 to reduce in a test record. However, the detection quality of an object classifier typically increases with the number of test images tested 200 , Thus, the minimum number of required test images 200 typically relatively high for reliable evaluation. The consequence is that if the number of test images is too small 200 no reliable statement about the confidence of a classifier is possible.
Im vorliegenden Dokument wird vorgeschlagen, Erkenntnisse bzgl. der Beleuchtungssituation von Bildausschnitten 202 in einer Vielzahl von Test-Bildern 200 eines Test-Datensatzes dazu zu verwenden, den Umfang der durchzuführenden Klassifikationen im Rahmen der Evaluierung eines Objekt-Klassifikators zu reduzieren, ohne dabei die Aussagekraft bzgl. der Konfidenz des Objekt-Klassifikators zu reduzieren. In this document, it is proposed to provide insights regarding the lighting situation of image sections 202 in a variety of test pictures 200 of a test dataset to reduce the scope of the classifications to be performed as part of the evaluation of an object classifier, without reducing the significance of the object classifier confidence.
Der Test-Datensatz umfasst eine Vielzahl von Grauwert-/Farbbildern 200, die durch eine Kamera 101 eines Fahrzeugs 100 erfasst wurden. Dabei besteht in Bezug auf eine Bildaufnahme typischerweise keine Einflussmöglichkeit auf Beleuchtungsdauer, Schärfentiefe, Blende, Pixelanzahl etc. Für alle Bilder 200 des Test-Datensatzes kann eine Beleuchtungssituation im Gesamtbild 200 sowie in allen lokalen Bildausschnitten 202 anhand des in diesem Dokument beschriebenen Beleuchtungs-Klassifikators in Form von diskreten Beleuchtungskategorien bzw. Beleuchtungsklassen bestimmt werden. Insbesondere können für jeden Bildausschnitt 202 und für jedes Bild 200 des Test-Datensatzes eine Kombination aus globaler Beleuchtungsklasse (GK) und aus lokaler Beleuchtungsklasse (LK) ermittelt werden. Die Verknüpfung einer bestimmten globalen und bestimmten lokalen Beleuchtungskategorie kann als eine bestimmte „Beleuchtungskombination“ bezeichnet werden. The test data set comprises a plurality of gray value / color images 200 through a camera 101 of a vehicle 100 were recorded. In this case, there is typically no possibility of influencing the duration of illumination, depth of field, aperture, number of pixels etc. with respect to image acquisition. For all images 200 the test record can be a lighting situation in the overall picture 200 as well as in all local image sections 202 determined by the lighting classifier described in this document in the form of discrete lighting categories or lighting classes. In particular, for each image section 202 and for every picture 200 of the test data record a combination of global illumination class (GK) and local illumination class (LK) are determined. The association of a particular global and particular local lighting category may be referred to as a particular "lighting combination".
Bei der Bestimmung der Beleuchtungskategorie der lokalen Bildausschnitte 202 werden die Bildausschnitte 202 (insbesondere die Form der Bildausschnitte 202) typischerweise in Abhängigkeit von der zu detektierenden Objektart gewählt. Für Personendetektionen ist beispielsweise ein rechteckiger Ausschnitt mit einem Seitenverhältnis von 2:1 geeignet. When determining the illumination category of the local image sections 202 become the image sections 202 (in particular the shape of the image sections 202 ) is typically selected depending on the type of object to be detected. For example, a rectangular cutout with an aspect ratio of 2: 1 is suitable for person detections.
Desweiteren werden die Bildausschnitte 202 des Test-Datensatzes „gelabelt“. Insbesondere werden die ein oder mehreren Bildausschnitte 202 eines Bildes 200, in denen tatsächlich abgebildete Objekte der gewünschten Objektart vorliegen, in dem Bild 200 manuell erfasst. Es ergibt sich somit ein Test-Datensatz, der für jeden Bildausschnitt 202 die GK und LK anzeigt, und der für jeden Bildausschnitt 202 anzeigt, ob der Bildausschnitt 202 ein zu detektierendes Objekt umfasst oder nicht. Furthermore, the image sections 202 of the test record "labeled". In particular, the one or more image sections 202 a picture 200 in which actual imaged objects of the desired object type are present in the image 200 manually recorded. It thus results in a test record, which for each image section 202 indicating the GK and LK, and that for each frame 202 indicates whether the image section 202 an object to be detected comprises or not.
Der zu testende Objekt-Klassifikator kann einen der in diesem Dokument beschriebenen Klassifikatoren umfassen. Beispielsweise kann der Objekt-Klassifikator ein oder mehrere der folgenden Merkmale / Deskriptoren verwenden: HOG, LBP, Haar/Edgelet-Wavelets. Desweiteren kann der Objekt-Klassifikator einen der folgenden Klassifikatoren umfassen: SVM, Bayes-Klassifikator, Neuronales Netz, etc. The object classifier to be tested may include one of the classifiers described in this document. For example, the object classifier may use one or more of the following features / descriptors: HOG, LBP, Haar / Edgelet wavelets. Furthermore, the object classifier may include one of the following classifiers: SVM, Bayes classifier, neural network, etc.
Auf Basis des Test-Datensatzes kann eine Soll-Verteilung der Beleuchtungskombinationen ermittelt werden. Mit anderen Worten, es kann für jede mögliche Beleuchtungskombination eine Wahrscheinlichkeit innerhalb des Test-Datensatzes ermittelt werden. Alternativ oder ergänzend kann auf Basis des Test-Datensatzes eine Soll-Verteilung der Beleuchtungskombinationen ermittelt werden, in denen sich ein zu detektierendes Objekt befindet. Mit anderen Worten, es kann ausschließlich auf Basis der Bildausschnitte 202 des Test-Datensatzes, die ein zu detektierende Objekt umfassen (sogenannte „Ground Truth“ Bildausschnitte), für jede mögliche Beleuchtungskombination eine Wahrscheinlichkeit für diese Beleuchtungskombination innerhalb des Test-Datensatzes ermittelt werden. Based on the test data set, a desired distribution of the illumination combinations can be determined. In other words, a probability within the test data set can be determined for each possible illumination combination. Alternatively or additionally, based on the test data set, a desired distribution of the illumination combinations in which an object to be detected is located can be determined. In other words, it can only be based on the image details 202 of the test data set comprising an object to be detected (so-called "ground truth" image sections), a probability for this combination of illumination within the test data set is determined for each possible illumination combination.
Beispielsweise kann gleichzeitig mit der Bestimmung der lokalen Beleuchtungsklasse für jeden Bildausschnitt 202 ermittelt werden, ob sich in dem jeweiligen Bildausschnitt 202 ein zu detektierendes Objekt befinden oder nicht. Wenn sich in einem Bildausschnitt 202 ein zu detektierendes Objekt befindet, so kann in Abhängigkeit von der Beleuchtungskombination des Bildausschnittes 202 ein entsprechender Zähler um Eins erhöht werden. Nach Prüfen des gesamten Test-Datensatzes kann für alle Beleuchtungskombinationen getrennt der Wert des jeweiligen Zählers ins Verhältnis zur Gesamtzahl an Bildausschnitten 202 mit dieser Beleuchtungskombination gesetzt werden. Es kann somit für jede Beleuchtungskombination die Wahrscheinlichkeit dafür ermittelt werden, dass der Test-Datensatz für diese Beleuchtungskombination einen Bildausschnitt 202 aufweist, der ein zu detektierendes Objekt umfasst. Mit anderen Worten kann das ermittelte Verhältnis für eine bestimmte Beleuchtungskombination als Wahrscheinlichkeit dafür angesehen werden, dass ein Bildausschnitt 202 mit dieser Beleuchtungssituation ein gesuchtes Objekt enthält. For example, at the same time as determining the local illumination class for each image section 202 be determined, whether in the respective image section 202 an object to be detected is or is not. If in a picture section 202 an object to be detected is located, it can be a function of the illumination combination of the image section 202 a corresponding counter can be increased by one. After checking the entire test data set, the value of each counter can be compared to the total number of image sections for all lighting combinations 202 be set with this lighting combination. It can thus be determined for each illumination combination the probability that the test record for this illumination combination a picture detail 202 comprising an object to be detected. In other words, the determined ratio for a particular combination of illumination can be considered as a probability that an image section 202 contains a searched object with this lighting situation.
6a zeigt eine beispielhafte Verteilung 600 von Wahrscheinlichkeiten 602 für unterschiedliche Beleuchtungskombinationen 601. Die Wahrscheinlichkeit 602 einer Beleuchtungskombination 601 zeigt an, mit welcher Wahrscheinlichkeit der Test-Datensatz für diese Beleuchtungskombination 601 Bildausschnitte 202 mit einem zu detektierenden Objekt umfasst. Eine Zuordnung von globaler und lokaler Beleuchtungsklasse (d.h. von der Beleuchtungskombination 601) zu der Wahrscheinlichkeit 602 kann beispielsweise in einer Look-Up-Tabelle gespeichert werden. 6a shows an exemplary distribution 600 of probabilities 602 for different lighting combinations 601 , The probability 602 a lighting combination 601 indicates with what probability the test record for this illumination combination 601 picture details 202 comprising an object to be detected. An association of global and local lighting class (ie the lighting combination 601 ) to the probability 602 can for example be stored in a look-up table.
Bei der Validierung eines Objekt-Klassifikators mittels des Test-Datensatzes kann während des Sliding-Window-Verfahrens anhand der Beleuchtungskombination 601 für einen Bildausschnitt 202 die passende Wahrscheinlichkeit 602 für das Auftreten eines Objektes ermittelt werden. Dazu kann auf die o.g. Look-Up-Tabelle zurückgegriffen werden. During the validation of an object classifier by means of the test data set, it is possible to use the illumination combination during the sliding window method 601 for a picture section 202 the right probability 602 be determined for the occurrence of an object. For this purpose, the above look-up table can be used.
Anhand eines Schwellwertes kann dann entschieden werden, ob der Objekt-Klassifikator auf einen bestimmten Bildausschnitt 202 angewandt werden soll oder nicht. Insbesondere kann die Wahrscheinlichkeit 602 für den Bildausschnitt 202 mit einem vordefinierten Wahrscheinlichkeits-Schwellwert verglichen werden. Liegt die Wahrscheinlichkeit 620 unterhalb von dem Wahrscheinlichkeits-Schwellwert, so wird der Objekt-Klassifikator nicht auf diesen Bildausschnitt 202 angewandt. Andernfalls kann eine Anwendung des Objekt-Klassifikators auf diesen Bildausschnitt 202 erfolgen. Mit den folgenden Bildausschnitten 202 kann in analoger Weise verfahren werden. Based on a threshold can then be decided whether the object classifier on a particular image detail 202 should be applied or not. In particular, the probability 602 for the picture section 202 be compared with a predefined probability threshold. Is the probability 620 below the probability threshold, the object classifier will not be on that frame 202 applied. Otherwise, an application of the object classifier to this image section 202 respectively. With the following image sections 202 can be proceeded in an analogous manner.
6b zeigt ein beispielhaftes Verfahren 610 zur Evaluierung eines Objekt-Klassifikators. Das Verfahren 610 umfasst das Bereitstellen 611 eines Test-Datensatzes mit einer Vielzahl von Bildern 200. Desweiteren umfasst das Verfahren 610 das Ermitteln 612 einer Verteilung 600 von Wahrscheinlichkeiten 602 für das Vorliegen von Bildausschnitten 202 mit einem zu detektierenden Objekt innerhalb des Test-Datensatzes. Die Wahrscheinlichkeiten 602 werden für unterschiedliche Beleuchtungskombinationen 601 ermittelt. Desweiteren umfasst das Verfahren 610 das Anwenden 613 des Objekt-Klassifikators auf eine Teilmenge der Bildausschnitte 202 des Test-Datensatzes, in Abhängigkeit von der Verteilung 600. 6b shows an exemplary method 610 to evaluate an object classifier. The procedure 610 includes providing 611 a test dataset with a large number of images 200 , Furthermore, the method includes 610 the determining 612 a distribution 600 of probabilities 602 for the presence of image sections 202 with an object to be detected within the test data set. The probabilities 602 be for different lighting combinations 601 determined. Furthermore, the method includes 610 the application 613 of the object classifier to a subset of the image sections 202 of the test record, depending on the distribution 600 ,
Somit kann die Objektklassifikation des Test-Datensatzes beschleunigt werden. Insbesondere müssen nicht mehr alle Bildausschnitte 202 eines Bildes 200 für die Evaluierung eines Objekt-Klassifikators geprüft werden. Unwahrscheinliche Bildausschnitte 202 können von der Prüfung ausgeschlossen werden. Dadurch sinkt die benötigte Rechenzeit, um eine Qualitätsaussage des Klassifikators abzuleiten. Andererseits können bei gleicher Rechenzeit aufgrund der beschriebenen Methode eine höhere Anzahl an Datensätzen geprüft werden. Somit kann mit gleichem Zeitaufwand ein Klassifikator hinsichtlich einer größeren Bandbreite von Rahmenbedingungen geprüft werden. Thus, the object classification of the test data set can be accelerated. In particular, not all image sections have to be changed 202 a picture 200 to be evaluated for the evaluation of an object classifier. Improbable image excerpts 202 can be excluded from the exam. This reduces the required computing time to derive a quality statement of the classifier. On the other hand, with the same calculation time, a higher number of data records can be tested on the basis of the described method. Thus, with the same amount of time, a classifier can be tested for a wider range of conditions.
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen. The present invention is not limited to the embodiments shown. In particular, it should be noted that the description and figures are intended to illustrate only the principle of the proposed methods, apparatus and systems.