DE102013109604A1 - Camera-based object recognition technology - Google Patents
Camera-based object recognition technology Download PDFInfo
- Publication number
- DE102013109604A1 DE102013109604A1 DE201310109604 DE102013109604A DE102013109604A1 DE 102013109604 A1 DE102013109604 A1 DE 102013109604A1 DE 201310109604 DE201310109604 DE 201310109604 DE 102013109604 A DE102013109604 A DE 102013109604A DE 102013109604 A1 DE102013109604 A1 DE 102013109604A1
- Authority
- DE
- Germany
- Prior art keywords
- process section
- object recognition
- recognition method
- structures
- microstructures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Abstract
Die Offenbarung betrifft eine kamerabasierte Objekterkennungstechnik, die zumindest ein Objekterkennungsverfahren und ein System (1) zur Ausführung des Verfahrens umfasst. Einem Erkennungsprozess (RP) werden Bilder (Pi, Pi + 1, Pi + 2) von der Umgebung eines Fahrzeugs (3) zugeführt, die von mindestens einer Kamera (K1–K4) aufgenommen werden und eine bekannte Abfolge haben. Ein erster Prozessabschnitt (PS1) erkennt Makro-Strukturen (Y) in Einzelbildern (Pi), insbesondere nach dem HOG-Erkennungsverfahren. Ein zweiter Prozessabschnitt (PS2) erkennt Mikro-Strukturen (X) und führt insbesondere eine Nachverfolgung von erkannten Mikro-Strukturen (dX) in der Abfolge von zumindest zwei Bildern (Pi, Pi + 1) aus. Der erste und der zweite Prozessabschnitt (PS1, PS2) werden parallel oder überlappend ausgeführt. Informationen über die erkannten und insbesondere nachverfolgten Mikro-Strukturen (X, dX) werden dem ersten Prozessabschnitt (PS1) zugeführt und es wird eine Relevanzbewertung für Bildbereiche (Lok1, Lok2) ausgeführt, die durch den ersten Prozessabschnitt (PS1) für Erkennung von Makro-Strukturen und ggfs. Objekten priorisiert zu verarbeiten sind.The disclosure relates to a camera-based object recognition technique, which comprises at least one object recognition method and a system (1) for carrying out the method. A recognition process (RP) is supplied with images (Pi, Pi + 1, Pi + 2) from the environment of a vehicle (3) taken by at least one camera (K1-K4) and having a known sequence. A first process section (PS1) recognizes macrostructures (Y) in individual images (Pi), in particular according to the HOG recognition method. A second process section (PS2) recognizes microstructures (X) and in particular carries out a tracking of recognized microstructures (dX) in the sequence of at least two images (Pi, Pi + 1). The first and second process sections (PS1, PS2) are executed in parallel or overlapping. Information about the detected and in particular tracked microstructures (X, dX) is fed to the first process section (PS1) and a relevance evaluation is carried out for image areas (Lok1, Lok2) which are detected by the first process section (PS1) for detection of macroscopic errors. Structures and, if necessary, objects are to be processed prioritized.
Description
Die Erfindung betrifft eine kamerabasierte Objekterkennungstechnologie zur Erkennung von Objekten in der Umgebung eines Fahrzeugs. The invention relates to a camera-based object recognition technology for detecting objects in the surroundings of a vehicle.
Aus der
Die bisher bekannten Objekterkennungsverfahren und Objekterkennungsvorrichtungen sind nicht optimal ausgebildet. The previously known object recognition methods and object recognition devices are not optimally designed.
Es ist Aufgabe der vorliegenden Erfindung, eine effizientere kamerabasierte Objekterkennungstechnologie aufzuzeigen, mit der der Rechenaufwand für die Objekterkennung reduziert und/oder die Verarbeitungsgeschwindigkeit für die Objekterkennung erhöht werden können. Die Technologie umfasst zumindest ein Objekterkennungsverfahren und ein Objekterkennungssystem. It is an object of the present invention to provide a more efficient camera-based object recognition technology with which the computational effort for the object recognition can be reduced and / or the processing speed for the object recognition can be increased. The technology includes at least one object recognition method and an object recognition system.
Die vorliegende Offenbarung betrifft ein kamerabasiertes Objekterkennungsverfahren, bei dem einem Erkennungsprozess wiederkehrend Bilder von der Umgebung eines Fahrzeugs zugeführt werden. Die Bilder werden von einer oder mehreren an dem Fahrzeug angeordneten Kameras aufgenommen und innerhalb der Bilder sollen Strukturen erkannt werden, die Objekten zuordenbar sind. Der Erkennungsprozess umfasst zumindest einen ersten Prozessabschnitt zur Erkennung von Makro-Strukturen innerhalb von Einzelbildern und einem zweiten Prozessabschnitt zur Erkennung von Mikro-Strukturen innerhalb einer Abfolge von zumindest zwei Bildern. The present disclosure relates to a camera-based object recognition method in which images of the surroundings of a vehicle are periodically supplied to a recognition process. The images are taken by one or more cameras arranged on the vehicle and within the images structures are to be recognized, which can be assigned to objects. The recognition process comprises at least a first process section for recognizing macro-structures within individual images and a second process section for recognizing micro-structures within a sequence of at least two images.
Die Erkennung von Makro-Strukturen erfordert in der Regel einen hohen Rechenaufwand. Sie wird basierend auf einem Vergleich von Bildbereichen mit vorbekannten Strukturmustern und/oder Objektmustern ausgeführt. Ein Objektmuster kann aus mehreren Strukturmustern zusammengesetzt sein. Für die Erkennung der Makro-Strukturen können verschiedene Prozessparameter beeinflusst werden, um eine grobe oder detaillierte Erkennung durchzuführen und/oder um die Zahl der zu erkennenden Strukturen / Objekte zu beeinflussen. Je größer die zu verarbeitenden Bildbereiche und die in den Vergleich einzubeziehenden Objektmuster bzw. Strukturmuster sind bzw. je größer deren Anzahl ist, desto höher wird der Rechenaufwand. The recognition of macro structures usually requires a high computational effort. It is executed based on a comparison of image areas with previously known structure patterns and / or object patterns. An object pattern can be composed of several structure patterns. For the recognition of the macrostructures, various process parameters can be influenced in order to carry out rough or detailed recognition and / or to influence the number of structures / objects to be recognized. The larger the image areas to be processed and the object patterns or structure patterns to be included in the comparison, or the larger their number, the higher the computational effort becomes.
Die Erkennung von Mikro-Strukturen kann mit einem vergleichsweise geringen Rechenaufwand ausgeführt werden. Sie kann zwei Hauptstufen beinhalten, nämlich einerseits die (statische) Erkennung von Mikro-Strukturen in einem Einzelbild und andererseits die (dynamische) Nachverfolgung von erkannten Mikro-Strukturen in einer Abfolge von mindestens zwei Bildern. The recognition of microstructures can be carried out with a comparatively low computational effort. It can involve two main stages, namely the (static) recognition of microstructures in a single image and the (dynamic) tracking of recognized microstructures in a sequence of at least two images.
Gemäß der vorliegenden Offenbarung ist vorgesehen, dass Ergebnisinformationen aus dem zweiten Prozessabschnitt über erkannte und insbesondere nachverfolgte Mikro-Strukturen aus dem zweiten Prozessabschnitt dem ersten Prozessabschnitt zugeführt werden. Auf der Basis der erkannten und insbesondere nachverfolgen Mikro-Strukturen in der Abfolge von Bildern wird eine Relevanzbewertung für lokale Bildbereiche in diesen Bildern vorgenommen. Über diese Relevanzbewertung wird der in dem ersten Prozessabschnitt durchgeführte Vorgang zur Erkennung von Marko-Strukturen skaliert. Die Skalierung kann durch die Beeinflussung verschiedener Prozessparameter erfolgen. Die Skalierung kann insbesondere die Auswahl der lokalen Bildbereiche in den Einzelbildern betreffen, die für die Erkennung von Marko-Strukturen priorisiert verarbeitet werden. Die Skalierung kann ferner eine Rastergröße (grob/fein) für die Erkennung von Makro-Strukturen betreffen. Sie kann alternativ oder zusätzlich die Anzahl und/oder Größe und/oder Detailierung der in dem ersten Prozessabschnitt zu verwendenden Strukturmuster und/oder Objektmuster betreffen. Daneben sind beliebige andere Möglichkeiten zur Skalierung des Erkennungsprozesses in dem ersten Prozessabschnitt möglich. According to the present disclosure, it is provided that result information from the second process section is fed to the first process section via recognized and in particular tracked microstructures from the second process section. On the basis of the recognized and, in particular, tracking microstructures in the sequence of images, a relevance evaluation is made for local image areas in these images. This relevance evaluation scales the process for recognizing marrow structures carried out in the first process section. Scaling can be done by influencing various process parameters. The scaling can in particular relate to the selection of the local image areas in the individual images, which are processed prioritized for the recognition of marko structures. The scaling may also relate to a grid size (coarse / fine) for the recognition of macrostructures. It may alternatively or additionally relate to the number and / or size and / or detailing of the structural patterns and / or object patterns to be used in the first process section. In addition, any other possibilities for scaling the recognition process in the first process section are possible.
Die Erkennung von Mikro-Strukturen in dem zweiten Prozessabschnitt umfasst insbesondere die Erkennung von dynamischen Veränderungen zwischen zwei Folgebildern. Diese Veränderungen werden auch als optischer Fluss bezeichnet. Solche dynamischen Veränderungen können bevorzugt Verschiebungen von zwischen zwei Folgebildern nachverfolgten Mikro-Strukturen sein. In particular, the recognition of microstructures in the second process section comprises the detection of dynamic changes between two subsequent images. These changes are also called optical flow. Such dynamic changes may preferably be shifts in microstructures tracked between two sequential images.
Die Relevanzbewertung kann anhand unterschiedlicher Kriterien erfolgen, wobei die Auswahl der Kriterien von der Art der zu erkennenden Strukturen und/oder Objekte abhängig sein kann. Für die Erkennung von Fußgängern oder anderen beweglichen Verkehrsteilnehmern kann eine Relevanzbewertung bevorzugt auf Basis der lokalen Verteilung, d. h. insbesondere der lokalen Anordnungsdichte, und/oder der lokalen Orientierung von erkannten und insbesondere nachverfolgten Mikro-Strukturen ausgeführt werden. The relevance evaluation can be made on the basis of different criteria, wherein the selection of the criteria can be dependent on the type of structures and / or objects to be recognized. For the recognition of pedestrians or other mobile road users, a relevance score may preferably be based on the local distribution, i. H. in particular the local arrangement density, and / or the local orientation of recognized and in particular tracked microstructures.
Es können insbesondere solche lokalen Bildbereiche mit einer hohen Relevanz bewertet werden, in denen eine hohe Dichte von erkannten, insbesondere von nachverfolgten Mikro-Strukturen festgestellt wurde. Alternativ oder zusätzlich kann eine Bewertung mit einer höheren Relevanz für solche Bereiche erfolgen, in denen die Orientierung der dynamischen Veränderungen der Mikro-Strukturen einer bestimmten Vergleichsrichtung entspricht. Diese Vergleichsrichtung kann in Abhängigkeit von den zu erkennenden Strukturen / Objekten festgelegt sein. Für die Erkennung von Fußgängern oder anderen Verkehrsteilnehmern kann ein Bereich, in dem die Orientierung einer zu dem Fahrzeug hinweisenden Vergleichsrichtung entspricht, mit höherer Relevanz bewertet werden. Die Vergleichsrichtung kann in Abhängigkeit von der Anordnung der Kamera am Fahrzeug, der momentanen Eigenbewegung des Fahrzeugs und für jeden zu prüfenden Bildbereich separat festgelegt sein. In particular, those local image areas with a high relevance can be evaluated, in which a high density of detected, in particular of tracked, microstructures has been established. Alternatively or additionally, an evaluation with a higher relevance can be made for those areas in which the orientation of the dynamic changes of the microstructures corresponds to a particular comparison direction. This comparison direction can be determined as a function of the structures / objects to be recognized. For the detection of pedestrians or other road users can be an area in which the orientation corresponds to the vehicle indicative comparison direction, be rated with higher relevance. The comparison direction can be determined separately depending on the arrangement of the camera on the vehicle, the current proper motion of the vehicle and for each image area to be checked.
Die in dem Erkennungsprozess erkannten Makro-Strukturen und/oder Objekte sowie die erkannten und insbesondere nachverfolgten Mikro-Strukturen können weiteren Anwendungen zur Verfügung gestellt werden. In diesen Anwendungen können parallel oder nachgelagert andere Erkennungsverfahren ausgeführt werden, die beispielsweise der Erhöhung der Fahrsicherheit dienen. Die Zuordnung der erkannten Strukturen zu Objekten kann auch in den nachgelagerten Anwendungen erfolgen oder dort ergänzt werden. Die nachgelagerten Anwendungen oder Verarbeitungen können auch auf Erkennungsdaten von anderen Signalverarbeitungen zugreifen und eine sog. Sensordatenfusion ausführen. Derartige andere Signalverarbeitungen können bspw. Daten von Radar-Sensoren, Lidar-Sensoren oder aus Navigationsdatenbanken verarbeiten. The macro-structures and / or objects recognized in the recognition process as well as the recognized and in particular traced micro-structures can be made available to further applications. In these applications, other detection methods can be carried out in parallel or downstream, for example to increase driving safety. The assignment of the recognized structures to objects can also be carried out in the downstream applications or supplemented there. The downstream applications or processing may also access recognition data from other signal processing and perform a so-called sensor data fusion. Such other signal processing may, for example, process data from radar sensors, lidar sensors or from navigation databases.
In den Unteransprüchen sind weitere vorteilhafte Ausbildungen der Offenbarung angegeben. In the subclaims further advantageous embodiments of the disclosure are given.
Die Erfindung ist in den Zeichnungen beispielsweise und schematisch dargestellt. Es zeigen: The invention is illustrated by way of example and schematically in the drawings. Show it:
Die vorliegende Offenbarung betrifft eine Objekterkennungstechnologie. Die Technologie umfasst zumindest ein Objekterkennungssystem (
Ein Objekterkennungssystem (
Die ECU (
Die hier offenbarte Objekterkennungstechnik kann für verschiedene Zwecke eingesetzt werden, insbesondere für Verfahren und Systeme zur Erhöhung der Verkehrssicherheit. Mit anderen Worten können die Ergebnisse und Ausgabeinformationen des hier offenbarten Objekterkennungsverfahrens bzw. die Ausgabeinformationen des hier offenbarten Objekterkennungssystems weiteren Anwendungen oder Verarbeitungen zugeführt werden. Zu solchen Anwendungen oder Verarbeitungen gehören insbesondere:
- • Blind Spot Detection (Überwachung des toten Winkels)
- • Parking Assist (Einparkhilfe)
- • Cross Traffic Alert (Warnung über kreuzende Verkehrsteilnehmer)
- • Forward Collision Warning, Rear Collision Warning (Warnsysteme zur Vermeidung von Auffahrunfällen)
- • Pedestrian Collision Warning, Pedestrian Collision Detection (Fußgängerkollisionswarnung und Fußgängerkollisionserkennung)
- • Lane Departure Warning, Lane Change Assist (Spurverlassenswarnung, Spurwechselassistenz)
- • Blind Spot Detection
- • Parking Assist
- • Cross Traffic Alert
- • Forward Collision Warning, Rear Collision Warning (warning systems to avoid rear-end collisions)
- • Pedestrian Collision Warning, Pedestrian Collision Detection (Pedestrian Collision Warning and Pedestrian Collision Detection)
- • Lane Departure Warning, Lane Change Assist (lane departure warning, lane change assistance)
In
Zwischen den in dem ersten und dem zweiten Prozessabschnitt (PS1, PS2) verarbeiteten Bildern (Pi, Pi + 1, Pi + 2) besteht ein bekannter Zusammenhang. Insbesondere ist für jedes der Bilder (Pi, Pi + 1, Pi + 2) dessen Herkunft von einer bestimmten Kamera (K1–K4) sowie der Zeitpunkt der Aufnahme bekannt. Durch die Prozessabschnitte (PS1, PS2) können bevorzugt aufeinander folgende Bilder von einer einzelnen Kamera verarbeitet werden. Alternativ können aber auch Bilder und Abfolgen von Bildern verarbeitet werden, die von unterschiedlichen Kameras stammen. Dies ist beispielsweise dann sinnvoll, wenn zwei oder mehr Kameras denselben oder überlappende Umgebungsbereiche des Fahrzeugs aufnehmen. There is a known relationship between the images (Pi, Pi + 1, Pi + 2) processed in the first and second process sections (PS1, PS2). In particular, for each of the images (Pi, Pi + 1, Pi + 2) its origin from a particular camera (K1-K4) and the time of recording known. Through the process sections (PS1, PS2), successive images can preferably be processed by a single camera. Alternatively, however, it is also possible to process images and sequences of images that originate from different cameras. This is useful, for example, when two or more cameras record the same or overlapping surrounding areas of the vehicle.
Die Erkennungsergebnisse aus dem Erkennungsprozess (RP), insbesondere die erkannten Makro-Strukturen (Y) aus dem ersten Prozessabschnitt (PS1) und die erkannten und insbesondere nachverfolgten Mikro-Strukturen aus dem zweiten Prozessabschnitt (PS2) können den nachgelagerten Anwendungen oder Verarbeitungen (App1 bis App9) zugeführt werden. The recognition results from the recognition process (RP), in particular the recognized macrostructures (Y) from the first process section (PS1) and the recognized and in particular traced microstructures from the second process section (PS2) can be used by the downstream applications or processes (App1 to App9) are supplied.
Die hier offenbarte Objekterkennungstechnik wird im Folgenden beispielhaft für die Erkennung von Fußgängern in der Umgebung eines Fahrzeugs erläutert. Die hierzu erläuterten Verarbeitungsschritte, Prozessabschnitte und Komponenten, welche die Verarbeitung ausführen, können für die Erkennung von anderen Objekten sowie für die sonstige Weiterverarbeitung der erkannten Strukturen in anderen Anwendungen abgewandelt und angepasst werden. The object recognition technique disclosed here will be explained below by way of example for the recognition of pedestrians in the surroundings of a vehicle. The processing steps, process sections and components, which execute the processing for this purpose, can be modified and adapted for the recognition of other objects as well as for the further processing of the recognized structures in other applications.
Zunächst wird ein Beispiel für aufgenommene Bilder (Pi, Pi + 1, Pi + 2) aus der Front-Umgebung eines Fahrzeugs (
In
In den genannten Einzelbildern (Pi, Pi + 1, Pi + 2), die in der obersten Zeile von
Die Mikro-Strukturen können auf beliebige Weise erkannt und nachverfolgt werden. In der Praxis sind verschiedene Verfahren zur Erkennung von Mikro-Strukturen sowie zur Nachverfolgung von Mikro-Strukturen vorgeschlagen worden, die alternativ oder in Kombination angewendet werden können. Bei der Erkennung von Mikro-Strukturen werden bevorzugt kleine Bildbereiche (Mikro-Bildbereiche) von beispielsweise 3 × 3 Pixeln bis 6 × 6 Pixeln oder 10 × 10 Pixeln auf besonders charakteristische Bildmuster überprüft. Solche Bildmuster können beispielsweise als Kreuzungsstellen von Kontrastübergängen, d.h. beispielsweise als Kreuzungen von zwei oder mehr Kontrastlinien, vorliegen. Die Winkel der jeweiligen Kontrastübergänge oder Kontrastlinien innerhalb eines Mikro-Bildbereichs auf schnelle Weise errechnet werden. Sobald eine Mikro-Struktur (X) in einem Bild (Pi) erkannt wurde, können deren Typ und Lage registriert werden. Wenn eine Mikro-Struktur (X) desselben Typs in einem Folgebild (Pi + 1) innerhalb eines vorbestimmten Bereichs um die Lage der zuvor registrierten Mikro-Struktur (X) erkannt wird, können diese beiden Mikro-Strukturen einander zugeordnet werden. Die Zuordnung von zwei Mikro-Strukturen (X) desselben Typs in einer Abfolge von Bildern (Pi, Pi + 1) mit Erfassung der Lageveränderung wird als Nachverfolgen bezeichnet. Die Veränderung der Lage aus dem ersten Bild (Pi) zu dem Folgebild (Pi + 1) kann als Verschiebung (dX) erkannt werden. Eine Vielzahl solcher Verschiebungen (dX) für eine Vielzahl von nachverfolgten Mikro-Strukturen bildet den optischen Fluss. Der optische Fluss kann als Vektorfeld ausgedrückt sein, in dem für jede Verschiebung (dX) die Ausgangslage, Richtung und Länge hinterlegt ist. Alternativ kann eine andere Darstellung der Verschiebungen (dX) gewählt sein. The microstructures can be recognized and tracked in any way. In practice, various methods for detecting microstructures and for tracking microstructures have been proposed, which may be used alternatively or in combination. In the recognition of micro-structures, preferably small image areas (micro-image areas) of, for example, 3 × 3 pixels to 6 × 6 pixels or 10 × 10 pixels are checked for particularly characteristic image patterns. Such image patterns can be present, for example, as crossing points of contrast transitions, ie, for example, as intersections of two or more contrast lines. The angles of the respective contrast transitions or contrast lines within a micro-image area can be calculated quickly. Once a microstructure (X) has been detected in an image (Pi), its type and position can be registered. When a microstructure (X) of the same type is recognized in a sequence image (Pi + 1) within a predetermined range around the position of the previously registered microstructure (X), these two microstructures can be associated with each other. The assignment of two microstructures (X) of the same type in a sequence of images (Pi, Pi + 1) with detection of the change in position is referred to as tracking. The change of the position from the first image (Pi) to the next image (Pi + 1) can be recognized as a shift (dX). A variety of such shifts (dX) for a variety of tracked microstructures forms the optical flow. The optical flow can be considered Vector field in which for each shift (dX) the starting position, direction and length is deposited. Alternatively, another representation of the displacements (dX) may be selected.
In dem zweiten Prozessabschnitt (PS2) wird bevorzugt eine mehrstufige Verarbeitung des Bildmaterials ausgeführt. Die einzelnen Verarbeitungsstufen können von der Art und Größe der aufgenommenen Bilder (Pi, Pi + 1, Pi + 2) sowie dem gewünschten Erkennungsergebnis abhängen.
Die in
Bei Schritt (S10) wird ein nächstes zu verarbeitendes Bild für die Erkennung eingelesen. Das Bild besteht in der Regel aus einer Vielzahl von Bildpunkten (Pixeln), die Helligkeitsinformationen und ggfs. Farbinformationen beinhalten. Für jeden Bildpunkt können ein oder mehrere Helligkeits- und ggfs. Farbwerte separat abgespeichert sein. At step (S10), a next image to be processed for recognition is read. The image usually consists of a plurality of pixels that contain brightness information and, if necessary, color information. For each pixel, one or more brightness and possibly color values can be stored separately.
Bei Schritt (S20) wird eine Vor-Verarbeitung des Bildes ausgeführt. Die Vor-Verarbeitung kann einer Optimierung des Bildmaterials für die späteren Verarbeitungsschritte dienen, insbesondere dem Ausgleich von Belichtungs-Verhältnissen, der Umwandlung in ein Schwarz-Weiß-Bild oder der Anpassung des Bildrauschens. At step (S20), pre-processing of the image is performed. The pre-processing can serve to optimize the image material for the later processing steps, in particular the compensation of exposure ratios, the conversion into a black-and-white image or the adaptation of the image noise.
Bei dem in
In dem nachfolgenden Schritt (S30) wird die Erkennung von Mikro-Strukturen jeweils in einem Einzelbild der Abfolge ausgeführt. Die Erkennung von Mikro-Strukturen kann auf beliebige Weise erfolgen. In dem vorliegenden Beispiel wird die sog. Harris-Corner-Verarbeitung ausgeführt. Alternativ kann eine andere bekannte Verarbeitung genutzt werden. Am Ende des Schritts (S30) liegt bevorzugt eine Auflistung über die in dem verarbeiteten Bild erkannten Mikro-Strukturen mit dem jeweiligen Typ und der jeweiligen Lage vor. In the subsequent step (S30), the recognition of micro-structures is carried out in each case in one frame of the sequence. The recognition of microstructures can be done in any way. In the present example, so-called Harris-Corner processing is performed. Alternatively, another known processing may be used. At the end of step (S30), a listing of the microstructures recognized in the processed image with the respective type and the respective position is preferably present.
Im nachfolgendem Schritt (S40) wird der optische Fluss von erkannten Mikro-Strukturen in der Abfolge des vorherigen Bildes (Pi) zum vorliegenden Bild (Pi + 1) ermittelt. Die für das vorherige Bild (Pi) registrierten Mirko-Strukturen (X) und die für das vorliegende Bild (Pi + 1) erkannten Mikro-Strukturen (X) werden miteinander verglichen, wobei übereinstimmende Mikro-Strukturen (X) nachverfolgt werden. Bevorzugt wird für jede nachverfolgte Mikro-Struktur (X) eine Verschiebung (dX) vom vorherigen Bild (Pi) zu dem vorliegenden (Pi + 1) registriert. Die Registrierung erfolgt beispielsweise in einem Vektorfeld. In the subsequent step (S40), the optical flow of detected micro-structures in the sequence of the previous image (Pi) to the present image (Pi + 1) is determined. The microstructures (X) registered for the previous image (Pi) and the microstructures (X) recognized for the present image (Pi + 1) are compared with each other, whereby matching microstructures (X) are traced. Preferably, for each tracked microstructure (X), a shift (dX) from the previous image (Pi) to the present one (Pi + 1) is registered. The registration takes place, for example, in a vector field.
Im Verarbeitungsschritt (S50) wird die lokale Verteilung und/oder die jeweilige Verschiebungsrichtung für die nachverfolgten Mikro-Strukturen analysiert. Dies kann beispielsweise mit bekannten mathematischen Analysemethoden auf der Basis der vorgenannten Vektorfeldes geschehen. Alternativ kann eine andere Analysemethode verwendet werden. Bei der Analyse können lokale Bildbereiche (Lok1, Lok2) mit einer erhöhten Dichte von erkannten und insbesondere nachverfolgten Mikro-Strukturen bestimmt werden. Solche Bildbereiche (Lok1, Lok2) sind in den Bildern in der untersten Zeile von
Alternativ oder zusätzlich können lokale Bildbereiche (Lok1, Lok2) erkannt werden, in denen eine bestimmte Orientierung der Verschiebungen (dX) vorliegt und/oder in denen mehrere unterschiedliche Orientierungen der Verschiebungen (dX) vorliegen. Für die Erkennung von Fußgängern können beispielsweise solche Bereiche wichtig sein, in denen die Orientierung einer Verschiebung (dX) in eine Vergleichsrichtung weist, in der eine Kollision mit der Fahrzeugbewegung drohen könnte. Alternativ oder zusätzlich können solche Bereiche wichtig sein, in denen viele unterschiedliche Orientierungen von mehreren Verschiebungen (dX) vorliegen. Dies kann auf eine Mehrzahl von Fußgängern oder anderen Verkehrsteilnehmern hindeuten. Alternatively or additionally, local image regions (Lok1, Lok2) can be detected in which there is a specific orientation of the displacements (dX) and / or in which there are several different orientations of the displacements (dX). For the detection of pedestrians, for example, areas may be important in which the orientation of a shift (dX) points in a comparison direction in which a collision with the vehicle movement could threaten. Alternatively or additionally, those regions may be important in which there are many different orientations of several shifts (dX). This may indicate a majority of pedestrians or other road users.
In Schritt (S60) werden Informationen über die erkannten und insbesondere nachverfolgten Mikro-Strukturen, insbesondere das Analyse-Ergebnis, an den ersten Prozessabschnitt (PS1) übertragen. Auf der Basis dieser Informationen wird eine Relevanzbewertung ausgeführt, um die Skalierung des in dem ersten Prozessabschnitt (PS1) ausgeführten Erkennungsprozesses vorzunehmen. Die Relevanzbewertung kann in beliebiger zweckdienlicher Weise erfolgen. Sie kann als Verarbeitungsschritt in dem ersten Prozessabschnitt (PS1) oder in dem zweiten Prozessabschnitt (PS2) oder in einem separaten Prozess ausgeführt werden. In step (S60), information about the detected and, in particular, tracked microstructures, in particular the analysis result, is transmitted to the first process section (PS1). Based on this information, a relevance score is performed to determine the scaling of the one performed in the first process section (PS1) Make recognition process. The relevance assessment can be done in any convenient way. It can be executed as a processing step in the first process section (PS1) or in the second process section (PS2) or in a separate process.
Im letzten Schritt (S70) werden Informationen über erkannte und/oder nachverfolgte Mikro-Strukturen, d.h. insbesondere Informationen über den optischen Fluss, an nachfolgende Verarbeitungen oder Anwendungen (App1 bis App9) übertragen. Dann endet die Verarbeitung einmalig. Sie kann für das jeweils nächste Bild (Pi + 2) erneut ausgeführt werden. In the final step (S70), information about recognized and / or tracked microstructures, i. in particular information about the optical flow, to subsequent processing or applications (App1 to App9) transmitted. Then the processing ends once. It can be executed again for the next picture (Pi + 2).
Für das Objekterkennungsverfahren gemäß der vorliegenden Offenbarung kann eine andere Ausbildung des zweiten Prozessabschnitts (PS2) gewählt sein, als die in
Bei der Objekterkennungstechnik gemäß der vorliegenden Offenbarung werden der erste Prozessabschnitt (PS1) und der zweite Prozessabschnitt (PS2) bevorzugt parallel oder zeitlich überlappend ausgeführt. Die beiden Prozessabschnitte (PS1,PS2) können dabei dieselben Einzelbilder (Pi, Pi + 1, Pi + 2) verarbeiten. Alternativ können die Prozessabschnitte (PS1, PS2) teilweise unterschiedliche Bilder verarbeiten. So kann einem der Prozessabschnitte (PS1, PS2) beispielsweise nur jedes zweite oder dritte Bild zugeführt werden, während der andere Prozessabschnitt (PS2, PS1) alle Bilder verarbeitet. In the object recognition technique according to the present disclosure, the first process section (PS1) and the second process section (PS2) are preferably performed in parallel or temporally overlapping. The two process sections (PS1, PS2) can process the same individual images (Pi, Pi + 1, Pi + 2). Alternatively, the process sections (PS1, PS2) can partially process different images. For example, one of the process sections (PS1, PS2) can be supplied with only every second or third image, while the other process section (PS2, PS1) processes all the images.
Nachfolgend wird eine beispielshafte Verarbeitung für die Erkennung von Makro-Strukturen in dem ersten Prozessabschnitt (PS1) erläutert. In dem Prozessabschnitt (PS1) können Makro-Strukturen (Y) grundsätzlich auf beliebige Weise erkannt werden. In der Praxis sind unterschiedliche Verfahren zur Erkennung von Makro-Strukturen in Einzelbildern vorgeschlagen worden, die sich für die Erkennung von verschiedenen Arten von Objekten (O1–O4) eignen. Diese Verfahren können einzeln oder in Kombination angewendet werden, wobei die Auswahl der Verfahren von der Art der zu erkennenden Objekte abhängen kann. Hereinafter, an exemplary processing for recognizing macrostructures in the first process section (PS1) will be explained. In the process section (PS1), macrostructures (Y) can basically be recognized in any way. In practice, various methods have been proposed for recognizing macrostructures in frames that are suitable for the detection of different types of objects (O1-O4). These methods can be used individually or in combination, and the selection of the methods may depend on the type of objects to be recognized.
In
Im nachfolgenden Schritt (S120) kann eine Vor-Verarbeitung des Bildmaterials ausgeführt werden. Eine Vor-Verarbeitung kann auch hier in beliebiger Weise gewählt sein und der Optimierung des Bildmaterials für die weiteren Erkennungsschritte dienen. Es können insbesondere eine Größenveränderung (Größenskalierung), eine Kontrastanpassung, eine Kantenerkennung, eine Beeinflussung des Bildrauschens oder ähnliche Verarbeitungen ausgeführt werden. In the subsequent step (S120), pre-processing of the image material may be performed. A pre-processing can also be chosen here in any way and serve the optimization of the image material for further detection steps. In particular, a size change (size scaling), a contrast adjustment, an edge detection, an influence of the image noise or similar processing can be carried out.
Im Schritt (S130) wird eine Relevanzbewertung für lokale Bildbereiche des derzeit verarbeiteten Einzelbildes (Pi + 1) ausgeführt. Die Relevanzbewertung kann in unterschiedlicher Weise erfolgen. Sie kann insbesondere von den jeweils zu erkennenden Makro-Strukturen und/oder Objekten abhängen. Die Relevanzbewertung wird auf Basis der von dem zweiten Prozessabschnitt (PS2) zugeführten Informationen über die dort erkannten und insbesondere nachverfolgten Mikro-Strukturen ausgeführt. In step (S130), a relevance score for local image areas of the currently processed frame (Pi + 1) is executed. The relevance assessment can be done in different ways. In particular, it can depend on the respective macro-structures and / or objects to be recognized. The relevance evaluation is carried out on the basis of the information supplied by the second process section (PS2) via the microstructures recognized there and in particular tracked there.
Für die Erkennung von Fußgängern ist es beispielsweise sinnvoll, solche Bildbereiche (Lok1, Lok2) mit einer höheren Relevanz zu bewerten, in denen eine hohe Dichte an erkannten und insbesondere an nachverfolgten Mikro-Strukturen (X, dX) vorliegt. Alternativ oder zusätzlich sind für die Fußgängererkennung solche lokalen Bildbereiche mit einer höheren Relevanz zu bewerten, in denen die Orientierung der Verschiebungen (dX) von nachverfolgten Mikro-Strukturen (X) in einer Richtung zu dem Fahrzeug (
Die Erkennung von Makro-Strukturen kann bevorzugt durch einen Vergleichsprozess erfolgen, bei dem ein Vergleich von Bildinformationen eines ausgewählten Bildbereichs mit einem oder mehreren Strukturmustern ausgeführt wird. Dieser Vergleichsprozess kann bevorzugt mit einem sog. gleitenden Suchfenster (sliding search window) ausgeführt werden. Das Suchfenster hat eine vorbestimmte und ggfs. einstellbare Größe und wird iterativ über die als relevant bewerteten Bildbereiche bewegt. Bei jeder Ausführung des Vergleichsprozesses wird der momentane Inhalt des Suchfensters für den Vergleich berücksichtigt, d.h. die darin enthaltenen Bildinformationen (Pixel). Die Größe und/oder Auflösung der Strukturmuster, zu denen ein Vergleich ausgeführt wird, ist bevorzugt wählbar und kann in Abhängigkeit von der Relevanzbewertung festgelegt werden. Mit anderen Worten kann für unterschiedliche Bildbereiche (Lok1, Lok2) in Abhängigkeit von der jeweiligen Relevanzbewertung eine unterschiedliche Detaillierung für den Vergleichsprozess gewählt werden. So kann für Bereiche mit der höchsten Relevanz eine hohe Zahl und eine hohe Detaillierung von Strukturmustern verwendet werden. Alternativ oder zusätzlich kann eine Versatzweite des gleitenden Suchfensters von einer Verarbeitung zur nächsten sehr fein gewählt werden. Hierdurch wird eine feine und exakte Erkennung erreicht. The recognition of macro-structures may preferably be performed by a comparison process in which a comparison of image information of a selected image area with one or more structural patterns is performed. This comparison process can preferably be carried out with a so-called sliding search window. The search window has a predetermined and optionally adjustable size and is moved iteratively over the image areas that are evaluated as being relevant. Each time the comparison process is performed, the current content of the search window is taken into account for comparison, that is, the image information (pixels) contained therein. The size and / or resolution of the structural patterns for which a comparison is made is preferably selectable and may be determined depending on the relevance score. In other words, a different detailing for the comparison process can be selected for different image areas (Lok1, Lok2) depending on the respective relevance score. Thus, for areas with the highest relevance, a high number and a high degree of detail of structure patterns can be used. Alternatively or In addition, an offset range of the sliding search window can be selected to be very fine from one processing to the next. As a result, a fine and accurate detection is achieved.
Wenn die mit hoher Relevanz bewerteten Bildbereiche abgearbeitet worden sind kann optional in Schritt (S150) eine weitere Erkennung von Makro-Strukturen in lokalen Bildbereichen mit einer niedrigeren Relevanz ausgeführt werden. Die Ausführung von Schritt (S150) kann ebenfalls von der Relevanzbewertung abhängig gemacht werden. Für diese anderen Bereiche mit einer niedrigeren Relevanz kann die Erkennung bspw. grob und mit einer geringeren Zahl von Strukturmustern ausgeführt werden. Je nach Verfügbarkeit von freier Rechenzeit kann die Ausführung des Schritts (S150) ggfs. mit höheren Detailgraden wiederholt werden. If the image areas evaluated with high relevance have been processed, optionally in step (S150) a further recognition of macrostructures in local image areas having a lower relevance can be carried out. The execution of step (S150) may also be made dependent on the relevance score. For these other areas with a lower relevance, the recognition can be carried out, for example, roughly and with a smaller number of structure patterns. Depending on the availability of free computing time, the execution of step (S150) may be repeated with higher levels of detail, if necessary.
In einem letzten Schritt (S160) können die in den vorhergehenden Schritten (S140, S150) erzeugten Informationen über erkannte Makro-Strukturen an nachfolgende Verarbeitungen oder Anwendungen (App1 bis App9) übermittelt werden. Dann wird die Verarbeitung beendet, um ggf. für das nächste Bild erneut ausgeführt zu werden. In a final step (S160), the information about detected macrostructures generated in the preceding steps (S140, S150) can be transmitted to subsequent processes or applications (App1 to App9). Then, the processing is ended to be executed again for the next picture, if necessary.
Die Erkennung von Objekten, insbesondere die Zuweisung von erkannten Makro-Strukturen zu Objekten, kann in einer der nachfolgenden Anwendungen (App1–App9) oder in einem weiteren Verarbeitungsschritt innerhalb des Erkennungsprozesses (RP) erfolgen. Alternativ kann die Erkennung als Teil des ersten Prozessabschnittes (PS1) oder des zweiten Prozessabschnittes (PS2) erfolgen. The recognition of objects, in particular the assignment of recognized macro structures to objects, can take place in one of the subsequent applications (App1-App9) or in a further processing step within the recognition process (RP). Alternatively, the detection can be done as part of the first process section (PS1) or the second process section (PS2).
Der Vergleich von Bildinhalten, insbesondere den Bildinhalten des gleitenden Suchfensters, mit Strukturmustern kann auf beliebige Weise erfolgen. Es sind verschiedene Vergleichsverfahren bekannt, die einzeln oder in Kombination genutzt werden können. Für die Erkennung von Fußgängern hat es sich als vorteilhaft erwiesen, Strukturmuster in der Form von Histogrammen von gerichteten Gradienten (histogram of oriented gradients) (HOG) zu verwenden. Das zugehörige Erkennungs- oder Vergleichsverfahren wird im Folgenden als HOG Erkennungsverfahren bezeichnet. Das HOG-Verfahren ist beispielsweise aus der Veröffentlichung
Beim HOG Erkennungsverfahren wird ein lokaler Bildbereich, der dem Vergleich zugeführt werden soll, in Zellen unterteilt. Jede der Zellen hat eine vorgegebene Größe von beispielsweise 8×8 Pixeln. Innerhalb jeder Zelle wird ein Gradient der Helligkeitsverteilung berechnet. Dieser Gradient kann in vorgegebenen Winkelbereichen, beispielsweise in 8 oder 18 Bereichen zur Abdeckung der Winkel von 0° bis 360° angegeben werden. Der Gradient gibt dabei an, in welcher Richtung sich die größte Helligkeitsveränderung errechnet. Der Gradient kann ferner die Intensität der Helligkeitsveränderung wiedergeben. In the HOG recognition method, a local image area to be compared is divided into cells. Each of the cells has a predetermined size of, for example, 8x8 pixels. Within each cell, a gradient of the brightness distribution is calculated. This gradient can be given in predetermined angular ranges, for example in 8 or 18 ranges for covering the angles from 0 ° to 360 °. The gradient indicates in which direction the greatest change in brightness is calculated. The gradient may also reflect the intensity of the brightness change.
Für jede der in dem Bildbereich definierten Zellen wird sodann ein Histogramm der Gradienten erstellt und abgespeichert. Mit anderen Worten werden die erkannten Gradienten nach deren Richtung geordnet und gruppenweise gezählt. Jede Gruppe entspricht einem der vorgegebenen Winkelbereiche. For each of the cells defined in the image area, a histogram of the gradients is then created and stored. In other words, the detected gradients are ordered according to their direction and counted in groups. Each group corresponds to one of the given angular ranges.
Ein Strukturmuster kann einen Makro-Block von mehreren solchen Zellen umfassen, für die charakteristische Verteilungen von Gradienten festgelegt sind. Ein Objektmuster kann eine Mehrzahl von Strukturmustern beinhalten. Die Zahl der in dem ersten Prozessabschnitt in den Vergleich einzubeziehenden Strukturmuster und/oder die Auflösung oder Größe der in dem ersten Prozessabschnitt zu verwendenden Suchfenster und/oder Strukturmuster kann in Abhängigkeit von der Relevanzbewertung festgelegt sein. A texture pattern may comprise a macroblock of a plurality of such cells for which characteristic distributions of gradients are specified. An object pattern may include a plurality of texture patterns. The number of structure patterns to be included in the comparison in the first process section and / or the resolution or size of the search windows and / or structure patterns to be used in the first process section may be determined as a function of the relevance evaluation.
In den
In den Bildern in der zweiten Zeile von
In den Bildern in der unteren Zeile von
In der oberen Zeile von
Durch die Übertragung von Ergebnissen aus dem zweiten Prozessabschnitt (PS2) über erkannte und insbesondere nachverfolgte Mikro-Strukturen (X, dX) kann der in dem ersten Prozessabschnitt (PS1) ausgeführte Vorgang zur Erkennung von Makro-Strukturen (Y) deutlich optimiert werden. Insbesondere können solche Bildbereiche priorisiert verarbeitet werden, in denen gemäß der Bewertung des optischen Flusses Objekte mit einem erhöhten Kollisionsrisiko oder eine erhöhte Objektdichte vorliegen könnten. Hierdurch können sicherheitskritische Fremd-Objekte (O1, O2) in der Umgebung des Fahrzeugs (
Abwandlungen der Erfindung sind in verschiedener Weise möglich. Insbesondere können die zu den einzelnen Ausführungsbeispielen gezeigten oder beschriebenen Merkmale in beliebiger Weise miteinander kombiniert, gegeneinander ersetzt, ergänzt oder weggelassen werden. Modifications of the invention are possible in various ways. In particular, the features shown or described with respect to the individual embodiments can be combined with one another in any desired manner, replaced with one another, supplemented or omitted.
Die Kameras (K1 bis K4) können beliebig ausgebildet sein. Sie können ein schwarz-Weiß-Bild oder ein Farbbild aufnehmen. Es können insbesondere CMOS-Kameras mit einer Bildgröße von 1280×800 oder mehr Pixeln und einer Bildaufnahmefrequenz von 30 Hz eingesetzt werden. Anstelle der vorgenannten Strukturmuster und Objektmuster für die Erkennung von Fußgängern können andere Strukturmuster oder Objektmuster eingesetzt werden. Diese Muster können beispielsweise der Erkennung von anderen Verkehrsteilnehmern wie Autos, Lastkraftwagen oder Fahrradfahrern dienen. Alternativ oder zusätzlich können Muster verwendet werden, die der Erkennung von üblicherweise stehenden Umgebungsobjekten, wie Häusern, Straßenlaternen, Straßenschildern, Fahrbahnbegrenzungen, Randsteinen oder Ähnlichem dienen. Die Muster können andere Größen haben sowie andere Vergleichsverfahren als das oben genannte HOG-Erkennungsverfahren nutzen. Es kann auch eine Mischung von unterschiedlichen Erkennungsverfahren und Muster-Typen verwendet werden. The cameras (K1 to K4) can be configured as desired. You can take a black and white picture or a color picture. In particular, CMOS cameras with an image size of 1280 × 800 or more pixels and an image acquisition frequency of 30 Hz can be used. Instead of the aforementioned structure patterns and object patterns for the recognition of pedestrians, other structure patterns or object patterns may be used. These patterns can serve, for example, the recognition of other road users such as cars, trucks or cyclists. Alternatively or additionally, patterns may be used to detect commonly-encountered environmental objects such as houses, street lights, street signs, lane boundaries, curbs, or the like. The patterns may have different sizes and use comparison methods other than the HOG recognition method mentioned above. A mixture of different recognition methods and pattern types can also be used.
Ferner können die Objektmuster und Strukturmuster in unterschiedlichen Auflösungen oder Detaillierungen vorliegen. Furthermore, the object patterns and pattern may be in different resolutions or detailing.
Die in dem zweiten Prozessabschnitt (PS2) erfassten Informationen über die erkannten und insbesondere nachverfolgten Mikro-Strukturen können blockweise oder kontinuierlich zu dem ersten Prozessabschnitt (PS1) übertragen werden. Hierdurch lässt sich eine hohe Parallelisierung der Verarbeitungen in den Prozessabschnitten (PS1, PS2) erreichen. Beispielsweise können die zu verarbeitenden Bilder in mehrere Verarbeitungszonen aufgeteilt werden, die mit einer vorgegebenen Reihenfolge prozessiert werden. Die Erkennungsergebnisse aus dem zweiten Prozessabschnitt (PS2) können für jede dieser Zonen separat an den ersten Prozessabschnitt übermittelt werden, sodass mit einer sehr kurzen zeitlichen Verzögerung die relevanten Bereiche festlegbar sind. Bei der Verarbeitung eines Bildes von der Front-Umgebung des Fahrzeugs in dem zweiten Prozessabschnitt können so zuerst Mikro-Strukturen in der Bildmitte sowie im mittleren rechten und mittleren linken Bereich verarbeitet werden. In diesen Bereichen ist am ehesten mit kollisionsfähigen Objekten zu rechnen. In dem ersten Prozessabschnitt (PS1) kann entsprechend zunächst in den relevanten Bereichen dieser Zonen mit der Erkennung von Makro-Strukturen begonnen werden. Im weiteren zeitlichen Verlauf können für dasselbe verarbeite Bild (Pi + 1) dann Erkennungs-Informationen über Mikro-Strukturen in den weiteren Zonen an den ersten Prozessabschnitt (PS1) nachgeliefert werden, sodass auch in den dort befindlichen relevanten Bereichen die Erkennung von Makro-Strukturen fortgesetzt werden kann. The information acquired in the second process section (PS2) about the identified and, in particular, tracked microstructures can be transmitted in blocks or continuously to the first process section (PS1). This makes it possible to achieve high parallelization of the processings in the process sections (PS1, PS2). For example, the images to be processed can be divided into several processing zones, which are processed in a predetermined order. The recognition results from the second process section (PS2) can be transmitted separately to the first process section for each of these zones, so that the relevant areas can be established with a very short time delay. When processing an image from the front environment of the vehicle in the second process section, it is thus possible first to process microstructures in the center of the image and in the middle right and middle left regions. Collision-capable objects are most likely to be expected in these areas. In the first process section (PS1), the detection of macrostructures can accordingly commence first in the relevant areas of these zones. In the further course of time, for the same processed image (Pi + 1), recognition information about microstructures in the further zones can then be supplied to the first process section (PS1), so that the recognition of macrostructures in the relevant areas located there as well can be continued.
Die Relevanzbewertung kann in beliebiger Weise erfolgen. Beispielsweise können unterschiedliche Relevanzklassen vorgesehen werden, wobei die Bildbereiche, denen die höchste Relevanzklasse zugeordnet ist, als Erstes für die Erkennung von Makro-Strukturen in dem ersten Prozessabschnitt (PS1) berücksichtigt werden. Nachfolgend können die weiteren Bildbereiche mit jeweils absteigender Relevanz verarbeitet werden. Die Erkennung von Makro-Strukturen kann insgesamt zeitlich beschränkt sein und beispielsweise bei Erreichen einer maximalen Verarbeitungstaktlänge abgebrochen werden. Alternativ kann für einzelne Bilder aus der Bildfolge eine vollständige Prüfung auf das Vorhandensein von erkennbaren Makro-Strukturen erfolgen. Hierdurch werden auch solche Bildbereiche, denen eine niedrige Relevanz zugeordnet ist, gelegentlich einer feinen Erkennung unterzogen. The relevance assessment can be done in any way. For example, different relevance classes can be provided, wherein the image areas to which the highest relevance class is assigned are considered first for the recognition of macrostructures in the first process section (PS1). Subsequently, the other image areas can be processed with decreasing relevance. The recognition of macro-structures can be limited in time overall and for example, be aborted when reaching a maximum processing cycle length. Alternatively, a complete check for the presence of recognizable macro-structures can take place for individual images from the image sequence. As a result, even those image areas, which are assigned a low relevance, occasionally subjected to a fine detection.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Objekterkennungssystem – Object recognition system Object recognition system - Object recognition system
- 2 2
- Elektronische Steuereinheit (ECU) – Electronic control unit (ECU)Electronic control unit (ECU) - Electronic control unit (ECU)
- 33
- Fahrzeug – Vehicle Vehicle - Vehicle
- XX
- Mikro-Struktur – Micro structure Micro structure - Micro structure
- dXdX
- Verschiebung einer nachverfolgten Mikro-Struktur – Displacement of a tracked microstructure Displacement of a tracked microstructure - Displacement of a tracked microstructure
- YY
- Makro-Struktur – Macro structure Macro structure - Macro structure
- RPRP
- Erkennungsprozess – Recognition process Recognition process - Recognition process
- PS1PS1
- Erster Prozessabschnitt – First process section First process section - First process section
- PS2PS2
- Zweiter Prozessabschnitt – Second process section Second process section - Second process section
- Pipi
- Bild – Picture Picture - Picture
- K,K
- Kamera / – Camera / picture Camera / - Camera / picture
- KiKi
- Bildaufzeichnungsgerät – recording device Image recorder - recording device
- O,O,
- Objekt / Fremdobjekt – Object / Foreign Object / Foreign Object - Object / Foreign
- Oi Oi
- object object
- Appi Appi
- Anwendung / Verarbeitung – Application / ProcessingApplication / Processing - Application / Processing
- HOGHOG
- Histogramm von gerichteten Gradienten – Histrogram of oriented gradients Histogram of directed gradients - Histrogram of oriented gradients
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- JP 2011253214 A [0002] JP 2011253214 A [0002]
Zitierte Nicht-PatentliteraturCited non-patent literature
- Dalal, N., Triggs, B.: „Histograms of Oriented Gradients for Human Detection“, IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886–893, 2005 [0054] Dalal, N., Triggs, B .: "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893, 2005 [0054]
- Harris, C., Stephens, M.: „A combined corner and edge detector“, Proceedings oft he 4th Alvey Vision Conference, pp. 147–151, 1988 [0054] Harris, C., Stephens, M .: "A combined corner and edge detector", proceedings often he 4th Alvey Vision Conference, pp. 147-151, 1988 [0054]
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310109604 DE102013109604A1 (en) | 2013-09-03 | 2013-09-03 | Camera-based object recognition technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310109604 DE102013109604A1 (en) | 2013-09-03 | 2013-09-03 | Camera-based object recognition technology |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013109604A1 true DE102013109604A1 (en) | 2015-03-19 |
Family
ID=52579736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201310109604 Ceased DE102013109604A1 (en) | 2013-09-03 | 2013-09-03 | Camera-based object recognition technology |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013109604A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015226465A1 (en) * | 2015-12-22 | 2017-07-06 | Conti Temic Microelectronic Gmbh | METHOD FOR CHARACTER DETECTION, ENVIRONMENTAL IDENTIFICATION AND VEHICLE |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011253214A (en) | 2010-05-31 | 2011-12-15 | Toyota Motor Corp | Pedestrian detecting device |
-
2013
- 2013-09-03 DE DE201310109604 patent/DE102013109604A1/en not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011253214A (en) | 2010-05-31 | 2011-12-15 | Toyota Motor Corp | Pedestrian detecting device |
Non-Patent Citations (2)
Title |
---|
Dalal, N., Triggs, B.: "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893, 2005 |
Harris, C., Stephens, M.: "A combined corner and edge detector", Proceedings oft he 4th Alvey Vision Conference, pp. 147-151, 1988 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015226465A1 (en) * | 2015-12-22 | 2017-07-06 | Conti Temic Microelectronic Gmbh | METHOD FOR CHARACTER DETECTION, ENVIRONMENTAL IDENTIFICATION AND VEHICLE |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10301469B4 (en) | Infrared image processing device | |
DE102015121339B4 (en) | SYSTEMS AND METHODS FOR DETERMINING A CONDITION OF A ROAD | |
EP2394234B1 (en) | Method and device for determining an applicable lane marker | |
DE10030421B4 (en) | Vehicle environment monitoring system | |
DE10247371B4 (en) | Vehicle information providing device | |
DE102015205225A1 (en) | Method and device for detecting a target object in the blind spot of a vehicle | |
DE102014209137A1 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102014117102B4 (en) | Lane change warning system and method for controlling the lane change warning system | |
EP3552144A1 (en) | Camera device and method for capturing a surrounding region of a vehicle in a situation-adapted manner | |
DE102005056645A1 (en) | Vehicle surroundings monitoring apparatus, has height calculation device calculating height dimension of object based on dimension of obstacle, and object type determination device determining type of object based on dimension | |
EP3607740B1 (en) | Camera device and method for detecting an area outside a vehicle | |
EP2028605A1 (en) | Detection method for symmetric patterns | |
EP3291172A1 (en) | Method for calculating final image data | |
DE112009003648B4 (en) | Method and device for barrier separation | |
DE112012001606T5 (en) | Image processing apparatus for a vehicle | |
DE102012000459A1 (en) | Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
EP3645343B1 (en) | Camera device and method for the environment-based adaptive detection of the surroundings of a vehicle | |
DE102008036219A1 (en) | Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set | |
DE102020125232A1 (en) | Color correction method for a camera system and a camera system | |
DE102008059551A1 (en) | Method for determining the change in position of a camera system and device for capturing and processing images | |
DE102013109604A1 (en) | Camera-based object recognition technology | |
DE102014224903A1 (en) | Optical environment sensor for vehicles | |
DE102014209863A1 (en) | Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle | |
EP2696310B1 (en) | Method for identifying the edge of a road |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R084 | Declaration of willingness to licence | ||
R082 | Change of representative |
Representative=s name: ERNICKE PATENT- UND RECHTSANWAELTE PARTMBB, DE Representative=s name: ERNICKE PATENT- UND RECHTSANWAELTE, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |