DE102013109604A1 - Camera-based object recognition technology - Google Patents

Camera-based object recognition technology Download PDF

Info

Publication number
DE102013109604A1
DE102013109604A1 DE201310109604 DE102013109604A DE102013109604A1 DE 102013109604 A1 DE102013109604 A1 DE 102013109604A1 DE 201310109604 DE201310109604 DE 201310109604 DE 102013109604 A DE102013109604 A DE 102013109604A DE 102013109604 A1 DE102013109604 A1 DE 102013109604A1
Authority
DE
Germany
Prior art keywords
process section
object recognition
recognition method
structures
microstructures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201310109604
Other languages
German (de)
Inventor
Hiroaki Kumon
Naoki Nitanda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to DE201310109604 priority Critical patent/DE102013109604A1/en
Publication of DE102013109604A1 publication Critical patent/DE102013109604A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Abstract

Die Offenbarung betrifft eine kamerabasierte Objekterkennungstechnik, die zumindest ein Objekterkennungsverfahren und ein System (1) zur Ausführung des Verfahrens umfasst. Einem Erkennungsprozess (RP) werden Bilder (Pi, Pi + 1, Pi + 2) von der Umgebung eines Fahrzeugs (3) zugeführt, die von mindestens einer Kamera (K1–K4) aufgenommen werden und eine bekannte Abfolge haben. Ein erster Prozessabschnitt (PS1) erkennt Makro-Strukturen (Y) in Einzelbildern (Pi), insbesondere nach dem HOG-Erkennungsverfahren. Ein zweiter Prozessabschnitt (PS2) erkennt Mikro-Strukturen (X) und führt insbesondere eine Nachverfolgung von erkannten Mikro-Strukturen (dX) in der Abfolge von zumindest zwei Bildern (Pi, Pi + 1) aus. Der erste und der zweite Prozessabschnitt (PS1, PS2) werden parallel oder überlappend ausgeführt. Informationen über die erkannten und insbesondere nachverfolgten Mikro-Strukturen (X, dX) werden dem ersten Prozessabschnitt (PS1) zugeführt und es wird eine Relevanzbewertung für Bildbereiche (Lok1, Lok2) ausgeführt, die durch den ersten Prozessabschnitt (PS1) für Erkennung von Makro-Strukturen und ggfs. Objekten priorisiert zu verarbeiten sind.The disclosure relates to a camera-based object recognition technique, which comprises at least one object recognition method and a system (1) for carrying out the method. A recognition process (RP) is supplied with images (Pi, Pi + 1, Pi + 2) from the environment of a vehicle (3) taken by at least one camera (K1-K4) and having a known sequence. A first process section (PS1) recognizes macrostructures (Y) in individual images (Pi), in particular according to the HOG recognition method. A second process section (PS2) recognizes microstructures (X) and in particular carries out a tracking of recognized microstructures (dX) in the sequence of at least two images (Pi, Pi + 1). The first and second process sections (PS1, PS2) are executed in parallel or overlapping. Information about the detected and in particular tracked microstructures (X, dX) is fed to the first process section (PS1) and a relevance evaluation is carried out for image areas (Lok1, Lok2) which are detected by the first process section (PS1) for detection of macroscopic errors. Structures and, if necessary, objects are to be processed prioritized.

Description

Die Erfindung betrifft eine kamerabasierte Objekterkennungstechnologie zur Erkennung von Objekten in der Umgebung eines Fahrzeugs. The invention relates to a camera-based object recognition technology for detecting objects in the surroundings of a vehicle.

Aus der JP 2011 253 214 A ist eine Vorrichtung zur Erkennung von Fußgängern bekannt. From the JP 2011 253 214 A is a device for detecting pedestrians known.

Die bisher bekannten Objekterkennungsverfahren und Objekterkennungsvorrichtungen sind nicht optimal ausgebildet. The previously known object recognition methods and object recognition devices are not optimally designed.

Es ist Aufgabe der vorliegenden Erfindung, eine effizientere kamerabasierte Objekterkennungstechnologie aufzuzeigen, mit der der Rechenaufwand für die Objekterkennung reduziert und/oder die Verarbeitungsgeschwindigkeit für die Objekterkennung erhöht werden können. Die Technologie umfasst zumindest ein Objekterkennungsverfahren und ein Objekterkennungssystem. It is an object of the present invention to provide a more efficient camera-based object recognition technology with which the computational effort for the object recognition can be reduced and / or the processing speed for the object recognition can be increased. The technology includes at least one object recognition method and an object recognition system.

Die vorliegende Offenbarung betrifft ein kamerabasiertes Objekterkennungsverfahren, bei dem einem Erkennungsprozess wiederkehrend Bilder von der Umgebung eines Fahrzeugs zugeführt werden. Die Bilder werden von einer oder mehreren an dem Fahrzeug angeordneten Kameras aufgenommen und innerhalb der Bilder sollen Strukturen erkannt werden, die Objekten zuordenbar sind. Der Erkennungsprozess umfasst zumindest einen ersten Prozessabschnitt zur Erkennung von Makro-Strukturen innerhalb von Einzelbildern und einem zweiten Prozessabschnitt zur Erkennung von Mikro-Strukturen innerhalb einer Abfolge von zumindest zwei Bildern. The present disclosure relates to a camera-based object recognition method in which images of the surroundings of a vehicle are periodically supplied to a recognition process. The images are taken by one or more cameras arranged on the vehicle and within the images structures are to be recognized, which can be assigned to objects. The recognition process comprises at least a first process section for recognizing macro-structures within individual images and a second process section for recognizing micro-structures within a sequence of at least two images.

Die Erkennung von Makro-Strukturen erfordert in der Regel einen hohen Rechenaufwand. Sie wird basierend auf einem Vergleich von Bildbereichen mit vorbekannten Strukturmustern und/oder Objektmustern ausgeführt. Ein Objektmuster kann aus mehreren Strukturmustern zusammengesetzt sein. Für die Erkennung der Makro-Strukturen können verschiedene Prozessparameter beeinflusst werden, um eine grobe oder detaillierte Erkennung durchzuführen und/oder um die Zahl der zu erkennenden Strukturen / Objekte zu beeinflussen. Je größer die zu verarbeitenden Bildbereiche und die in den Vergleich einzubeziehenden Objektmuster bzw. Strukturmuster sind bzw. je größer deren Anzahl ist, desto höher wird der Rechenaufwand. The recognition of macro structures usually requires a high computational effort. It is executed based on a comparison of image areas with previously known structure patterns and / or object patterns. An object pattern can be composed of several structure patterns. For the recognition of the macrostructures, various process parameters can be influenced in order to carry out rough or detailed recognition and / or to influence the number of structures / objects to be recognized. The larger the image areas to be processed and the object patterns or structure patterns to be included in the comparison, or the larger their number, the higher the computational effort becomes.

Die Erkennung von Mikro-Strukturen kann mit einem vergleichsweise geringen Rechenaufwand ausgeführt werden. Sie kann zwei Hauptstufen beinhalten, nämlich einerseits die (statische) Erkennung von Mikro-Strukturen in einem Einzelbild und andererseits die (dynamische) Nachverfolgung von erkannten Mikro-Strukturen in einer Abfolge von mindestens zwei Bildern. The recognition of microstructures can be carried out with a comparatively low computational effort. It can involve two main stages, namely the (static) recognition of microstructures in a single image and the (dynamic) tracking of recognized microstructures in a sequence of at least two images.

Gemäß der vorliegenden Offenbarung ist vorgesehen, dass Ergebnisinformationen aus dem zweiten Prozessabschnitt über erkannte und insbesondere nachverfolgte Mikro-Strukturen aus dem zweiten Prozessabschnitt dem ersten Prozessabschnitt zugeführt werden. Auf der Basis der erkannten und insbesondere nachverfolgen Mikro-Strukturen in der Abfolge von Bildern wird eine Relevanzbewertung für lokale Bildbereiche in diesen Bildern vorgenommen. Über diese Relevanzbewertung wird der in dem ersten Prozessabschnitt durchgeführte Vorgang zur Erkennung von Marko-Strukturen skaliert. Die Skalierung kann durch die Beeinflussung verschiedener Prozessparameter erfolgen. Die Skalierung kann insbesondere die Auswahl der lokalen Bildbereiche in den Einzelbildern betreffen, die für die Erkennung von Marko-Strukturen priorisiert verarbeitet werden. Die Skalierung kann ferner eine Rastergröße (grob/fein) für die Erkennung von Makro-Strukturen betreffen. Sie kann alternativ oder zusätzlich die Anzahl und/oder Größe und/oder Detailierung der in dem ersten Prozessabschnitt zu verwendenden Strukturmuster und/oder Objektmuster betreffen. Daneben sind beliebige andere Möglichkeiten zur Skalierung des Erkennungsprozesses in dem ersten Prozessabschnitt möglich. According to the present disclosure, it is provided that result information from the second process section is fed to the first process section via recognized and in particular tracked microstructures from the second process section. On the basis of the recognized and, in particular, tracking microstructures in the sequence of images, a relevance evaluation is made for local image areas in these images. This relevance evaluation scales the process for recognizing marrow structures carried out in the first process section. Scaling can be done by influencing various process parameters. The scaling can in particular relate to the selection of the local image areas in the individual images, which are processed prioritized for the recognition of marko structures. The scaling may also relate to a grid size (coarse / fine) for the recognition of macrostructures. It may alternatively or additionally relate to the number and / or size and / or detailing of the structural patterns and / or object patterns to be used in the first process section. In addition, any other possibilities for scaling the recognition process in the first process section are possible.

Die Erkennung von Mikro-Strukturen in dem zweiten Prozessabschnitt umfasst insbesondere die Erkennung von dynamischen Veränderungen zwischen zwei Folgebildern. Diese Veränderungen werden auch als optischer Fluss bezeichnet. Solche dynamischen Veränderungen können bevorzugt Verschiebungen von zwischen zwei Folgebildern nachverfolgten Mikro-Strukturen sein. In particular, the recognition of microstructures in the second process section comprises the detection of dynamic changes between two subsequent images. These changes are also called optical flow. Such dynamic changes may preferably be shifts in microstructures tracked between two sequential images.

Die Relevanzbewertung kann anhand unterschiedlicher Kriterien erfolgen, wobei die Auswahl der Kriterien von der Art der zu erkennenden Strukturen und/oder Objekte abhängig sein kann. Für die Erkennung von Fußgängern oder anderen beweglichen Verkehrsteilnehmern kann eine Relevanzbewertung bevorzugt auf Basis der lokalen Verteilung, d. h. insbesondere der lokalen Anordnungsdichte, und/oder der lokalen Orientierung von erkannten und insbesondere nachverfolgten Mikro-Strukturen ausgeführt werden. The relevance evaluation can be made on the basis of different criteria, wherein the selection of the criteria can be dependent on the type of structures and / or objects to be recognized. For the recognition of pedestrians or other mobile road users, a relevance score may preferably be based on the local distribution, i. H. in particular the local arrangement density, and / or the local orientation of recognized and in particular tracked microstructures.

Es können insbesondere solche lokalen Bildbereiche mit einer hohen Relevanz bewertet werden, in denen eine hohe Dichte von erkannten, insbesondere von nachverfolgten Mikro-Strukturen festgestellt wurde. Alternativ oder zusätzlich kann eine Bewertung mit einer höheren Relevanz für solche Bereiche erfolgen, in denen die Orientierung der dynamischen Veränderungen der Mikro-Strukturen einer bestimmten Vergleichsrichtung entspricht. Diese Vergleichsrichtung kann in Abhängigkeit von den zu erkennenden Strukturen / Objekten festgelegt sein. Für die Erkennung von Fußgängern oder anderen Verkehrsteilnehmern kann ein Bereich, in dem die Orientierung einer zu dem Fahrzeug hinweisenden Vergleichsrichtung entspricht, mit höherer Relevanz bewertet werden. Die Vergleichsrichtung kann in Abhängigkeit von der Anordnung der Kamera am Fahrzeug, der momentanen Eigenbewegung des Fahrzeugs und für jeden zu prüfenden Bildbereich separat festgelegt sein. In particular, those local image areas with a high relevance can be evaluated, in which a high density of detected, in particular of tracked, microstructures has been established. Alternatively or additionally, an evaluation with a higher relevance can be made for those areas in which the orientation of the dynamic changes of the microstructures corresponds to a particular comparison direction. This comparison direction can be determined as a function of the structures / objects to be recognized. For the detection of pedestrians or other road users can be an area in which the orientation corresponds to the vehicle indicative comparison direction, be rated with higher relevance. The comparison direction can be determined separately depending on the arrangement of the camera on the vehicle, the current proper motion of the vehicle and for each image area to be checked.

Die in dem Erkennungsprozess erkannten Makro-Strukturen und/oder Objekte sowie die erkannten und insbesondere nachverfolgten Mikro-Strukturen können weiteren Anwendungen zur Verfügung gestellt werden. In diesen Anwendungen können parallel oder nachgelagert andere Erkennungsverfahren ausgeführt werden, die beispielsweise der Erhöhung der Fahrsicherheit dienen. Die Zuordnung der erkannten Strukturen zu Objekten kann auch in den nachgelagerten Anwendungen erfolgen oder dort ergänzt werden. Die nachgelagerten Anwendungen oder Verarbeitungen können auch auf Erkennungsdaten von anderen Signalverarbeitungen zugreifen und eine sog. Sensordatenfusion ausführen. Derartige andere Signalverarbeitungen können bspw. Daten von Radar-Sensoren, Lidar-Sensoren oder aus Navigationsdatenbanken verarbeiten. The macro-structures and / or objects recognized in the recognition process as well as the recognized and in particular traced micro-structures can be made available to further applications. In these applications, other detection methods can be carried out in parallel or downstream, for example to increase driving safety. The assignment of the recognized structures to objects can also be carried out in the downstream applications or supplemented there. The downstream applications or processing may also access recognition data from other signal processing and perform a so-called sensor data fusion. Such other signal processing may, for example, process data from radar sensors, lidar sensors or from navigation databases.

In den Unteransprüchen sind weitere vorteilhafte Ausbildungen der Offenbarung angegeben. In the subclaims further advantageous embodiments of the disclosure are given.

Die Erfindung ist in den Zeichnungen beispielsweise und schematisch dargestellt. Es zeigen: The invention is illustrated by way of example and schematically in the drawings. Show it:

1: eine Draufsicht auf ein Fahrzeug mit vier Kameras und einem Steuergerät, in dem ein Objekterkennungsverfahren gemäß der vorliegenden Offenbarung ausgeführt wird; 1 FIG. 4 is a plan view of a vehicle with four cameras and a controller in which an object recognition method according to the present disclosure is performed; FIG.

2: ein schematisches Blockschaltbild zur Darstellung des Informationsflusses bei einem Objekterkennungsverfahren gemäß der vorliegenden Offenbarung; 2 3 is a schematic block diagram illustrating the flow of information in an object recognition method according to the present disclosure;

3: ein Ablaufdiagramm, das beispielhaft eine Verarbeitung in einem zweiten Prozessabschnitt darstellt; 3 FIG. 3 is a flowchart illustrating, by way of example, processing in a second process section; FIG.

4 und 5: beispielhafte Darstellungen einer Abfolge von Kamerabildern und zugehörigen Verarbeitungsergebnissen aus dem ersten und dem zweiten Prozessabschnitt; 4 and 5 : Exemplary representations of a sequence of camera images and associated processing results from the first and second process sections;

6: ein Ablaufdiagramm, das beispielhaft eine Verarbeitung in einem ersten Prozessabschnitt darstellt. 6 FIG. 3 is a flowchart illustrating, by way of example, processing in a first process section.

Die vorliegende Offenbarung betrifft eine Objekterkennungstechnologie. Die Technologie umfasst zumindest ein Objekterkennungssystem (1) zur Erkennung von Objekten (O1 bis O4) in der Umgebung eines Fahrzeugs (3) sowie ein Objekterkennungsverfahren. The present disclosure relates to an object recognition technology. The technology comprises at least one object recognition system ( 1 ) for detecting objects (O1 to O4) in the vicinity of a vehicle ( 3 ) as well as an object recognition method.

Ein Objekterkennungssystem (1) ist in 1 beispielhaft dargestellt. Das System (1) weist zumindest eine Kamera (K) und eine elektronische Steuereinheit (nachfolgend ECU genannt) (2) auf. An dem in 1 dargestellten Fahrzeug (3) sind vier Kameras (K1 bis K4) angeordnet, die die Umgebung des Fahrzeugs (3) in unterschiedlichen Richtungen aufnehmen. Um das Fahrzeug (3) herum befinden sich beispielhaft vier Fremdobjekte (O1 bis O4). Das Fremdobjekt (O1) ist ein Fußgänger mit einem Kinderwagen, das Objekt (O2) ist ein weiterer Fußgänger, das Objekt (O3) ist eine Straßenlaterne und das Objekt (O4) ist ein Gebäude. An object recognition system ( 1 ) is in 1 exemplified. The system ( 1 ) has at least one camera (K) and an electronic control unit (hereinafter referred to as ECU) ( 2 ) on. At the in 1 represented vehicle ( 3 ) four cameras (K1 to K4) are arranged, which surround the vehicle ( 3 ) in different directions. To the vehicle ( 3 ) are four examples of foreign objects (O1 to O4). The foreign object (O1) is a pedestrian with a stroller, the object (O2) is another pedestrian, the object (O3) is a street lamp and the object (O4) is a building.

Die ECU (2) kann beliebig ausgebildet sein. Sie beinhaltet bevorzugt zumindest eine CPU, einen flüchtigen Speicher (RAM) und einen nichtflüchtigen Speicher (ROM). In der ECU (2), insbesondere in dem ROM, ist ein Programm abgelegt, das zur Ausführung des Objekterkennungsverfahrens genutzt wird. Die später beschriebenen Verarbeitungsschritte und Prozessabschnitte können bevorzugt durch entsprechende Anteile des Programms umgesetzt sein. Alternativ oder zusätzlich können einzelne oder alle Verarbeitungsschritte und/oder Prozessabschnitte durch separate Hardware ausgeführt werden. Dies beinhaltet auch die Möglichkeit, dass einzelne Verarbeitungsschritte und/oder Prozessabschnitte auf anderen Steuergeräten ausgeführt und deren Ergebnisse zu der ECU (2) zurückgeführt werden. The ECU ( 2 ) can be configured arbitrarily. It preferably includes at least a CPU, a volatile memory (RAM) and a nonvolatile memory (ROM). In the ECU ( 2 ), in particular in the ROM, a program is stored, which is used for the execution of the object recognition method. The processing steps and process sections described later can preferably be implemented by corresponding portions of the program. Alternatively or additionally, individual or all processing steps and / or process sections may be executed by separate hardware. This also includes the possibility of performing individual processing steps and / or process sections on other ECUs and reporting their results to the ECU ( 2 ) to be led back.

Die hier offenbarte Objekterkennungstechnik kann für verschiedene Zwecke eingesetzt werden, insbesondere für Verfahren und Systeme zur Erhöhung der Verkehrssicherheit. Mit anderen Worten können die Ergebnisse und Ausgabeinformationen des hier offenbarten Objekterkennungsverfahrens bzw. die Ausgabeinformationen des hier offenbarten Objekterkennungssystems weiteren Anwendungen oder Verarbeitungen zugeführt werden. Zu solchen Anwendungen oder Verarbeitungen gehören insbesondere:

  • • Blind Spot Detection (Überwachung des toten Winkels)
  • • Parking Assist (Einparkhilfe)
  • • Cross Traffic Alert (Warnung über kreuzende Verkehrsteilnehmer)
  • • Forward Collision Warning, Rear Collision Warning (Warnsysteme zur Vermeidung von Auffahrunfällen)
  • • Pedestrian Collision Warning, Pedestrian Collision Detection (Fußgängerkollisionswarnung und Fußgängerkollisionserkennung)
  • • Lane Departure Warning, Lane Change Assist (Spurverlassenswarnung, Spurwechselassistenz)
The object recognition technique disclosed herein may be used for various purposes, particularly for methods and systems for increasing traffic safety. In other words, the results and output information of the object recognition method disclosed herein or the output information of the object recognition system disclosed herein may be supplied to other applications or processing. Such applications or processing include in particular:
  • • Blind Spot Detection
  • • Parking Assist
  • • Cross Traffic Alert
  • • Forward Collision Warning, Rear Collision Warning (warning systems to avoid rear-end collisions)
  • • Pedestrian Collision Warning, Pedestrian Collision Detection (Pedestrian Collision Warning and Pedestrian Collision Detection)
  • • Lane Departure Warning, Lane Change Assist (lane departure warning, lane change assistance)

In 2 ist ein kamerabasierte Objekterkennungsverfahren gemäß der vorliegenden Offenbarung beispielhaft dargestellt. Als Eingangsinformationen sind auf der linken Seite drei Kamerabilder (Pi, Pi + 1, Pi + 2) gezeigt, die von einer Kamera (K, K1 bis K4) des Fahrzeugs aufgenommen sind und dem Erkennungsprozess (RP) zugeführt werden. Innerhalb des Erkennungsprozesses (RP) werden zumindest ein erster Prozessabschnitt (PS1) und ein zweiter Prozessabschnitt (PS2) ausgeführt. Der erste Prozessabschnitt (PS1) dient der Erkennung von Makro-Strukturen innerhalb von Einzelbildern. Der zweite Prozessabschnitt (PS2) dient der Erkennung und Nachverfolgung von Mikro-Strukturen in einer Abfolge von zumindest zwei Bildern. Mit anderen Worten dient der erste Prozessabschnitt (PS1) der Erkennung von statischen Bildmerkmalen, die Objekten (O1–O4) zuordenbar sind und der zweite Prozessabschnitt (PS2) dient der Erkennung des optischen Flusses in einer Abfolge von zumindest zwei Bildern. In 2 For example, a camera-based object recognition method according to the present disclosure is exemplified. When Input information is shown on the left side three camera images (Pi, Pi + 1, Pi + 2), which are taken from a camera (K, K1 to K4) of the vehicle and the detection process (RP) are supplied. Within the recognition process (RP), at least a first process section (PS1) and a second process section (PS2) are executed. The first process section (PS1) serves to detect macro-structures within individual images. The second process section (PS2) serves to detect and track microstructures in a sequence of at least two images. In other words, the first process section (PS1) serves to detect static image features that can be assigned to objects (O1-O4), and the second process section (PS2) serves to detect the optical flow in a sequence of at least two images.

Zwischen den in dem ersten und dem zweiten Prozessabschnitt (PS1, PS2) verarbeiteten Bildern (Pi, Pi + 1, Pi + 2) besteht ein bekannter Zusammenhang. Insbesondere ist für jedes der Bilder (Pi, Pi + 1, Pi + 2) dessen Herkunft von einer bestimmten Kamera (K1–K4) sowie der Zeitpunkt der Aufnahme bekannt. Durch die Prozessabschnitte (PS1, PS2) können bevorzugt aufeinander folgende Bilder von einer einzelnen Kamera verarbeitet werden. Alternativ können aber auch Bilder und Abfolgen von Bildern verarbeitet werden, die von unterschiedlichen Kameras stammen. Dies ist beispielsweise dann sinnvoll, wenn zwei oder mehr Kameras denselben oder überlappende Umgebungsbereiche des Fahrzeugs aufnehmen. There is a known relationship between the images (Pi, Pi + 1, Pi + 2) processed in the first and second process sections (PS1, PS2). In particular, for each of the images (Pi, Pi + 1, Pi + 2) its origin from a particular camera (K1-K4) and the time of recording known. Through the process sections (PS1, PS2), successive images can preferably be processed by a single camera. Alternatively, however, it is also possible to process images and sequences of images that originate from different cameras. This is useful, for example, when two or more cameras record the same or overlapping surrounding areas of the vehicle.

Die Erkennungsergebnisse aus dem Erkennungsprozess (RP), insbesondere die erkannten Makro-Strukturen (Y) aus dem ersten Prozessabschnitt (PS1) und die erkannten und insbesondere nachverfolgten Mikro-Strukturen aus dem zweiten Prozessabschnitt (PS2) können den nachgelagerten Anwendungen oder Verarbeitungen (App1 bis App9) zugeführt werden. The recognition results from the recognition process (RP), in particular the recognized macrostructures (Y) from the first process section (PS1) and the recognized and in particular traced microstructures from the second process section (PS2) can be used by the downstream applications or processes (App1 to App9) are supplied.

Die hier offenbarte Objekterkennungstechnik wird im Folgenden beispielhaft für die Erkennung von Fußgängern in der Umgebung eines Fahrzeugs erläutert. Die hierzu erläuterten Verarbeitungsschritte, Prozessabschnitte und Komponenten, welche die Verarbeitung ausführen, können für die Erkennung von anderen Objekten sowie für die sonstige Weiterverarbeitung der erkannten Strukturen in anderen Anwendungen abgewandelt und angepasst werden. The object recognition technique disclosed here will be explained below by way of example for the recognition of pedestrians in the surroundings of a vehicle. The processing steps, process sections and components, which execute the processing for this purpose, can be modified and adapted for the recognition of other objects as well as for the further processing of the recognized structures in other applications.

Zunächst wird ein Beispiel für aufgenommene Bilder (Pi, Pi + 1, Pi + 2) aus der Front-Umgebung eines Fahrzeugs (3) erläutert. Anschließend werden zwei Beispiele für in dem ersten Prozessabschnitt (PS1) und in dem zweiten Prozessabschnitt (PS2) ausgeführte Verarbeitungen erläutert, um dann die Ergebnisse solcher Verarbeitungen wieder an den Bildern zu verdeutlichen. First, an example of captured images (Pi, Pi + 1, Pi + 2) from the front environment of a vehicle ( 3 ) explained. Next, two examples of processes performed in the first process section (PS1) and the second process section (PS2) will be explained, to then clarify the results of such processings on the images.

In 4 sind in der obersten Zeile drei Originalbilder (Pi, Pi + 1, Pi + 2) dargestellt, die von einer Kamera (K1) aufgenommen worden sind. Die Kamera (K1) ist an der Vorderseite eines Fahrzeugs (3) angeordnet (vgl. 1) und im Wesentlichen in Axialrichtung des Fahrzeugs (3) ausgerichtet, sodass sie einen Teilbereich oder Frontbereich der Umgebung vor dem Fahrzeug (3) aufnimmt. In 4 In the top line are three original pictures (Pi, Pi + 1, Pi + 2) taken by a camera (K1). The camera (K1) is at the front of a vehicle ( 3 ) (cf. 1 ) and substantially in the axial direction of the vehicle ( 3 ) so that they form a partial area or front area of the surroundings in front of the vehicle ( 3 ).

In den genannten Einzelbildern (Pi, Pi + 1, Pi + 2), die in der obersten Zeile von 4 dargestellt sind, sind bereits erkannte und insbesondere nachverfolgte Mikro-Strukturen eingezeichnet. Die in dem zweiten Prozessabschnitt (PS2) erfassten Mikro-Strukturen (X) sind als helle Punkte dargestellt. Die in der Abfolge von zwei Bildern nachverfolgten Mikro-Strukturen, d.h. die Verschiebungen (dX) der nachverfolgten Mikro-Strukturen von einem ersten Bild (Pi) zu einem Folgebild (Pi + 1) sind als rote Linien dargestellt. Zur besseren Sichtbarmachung sind die erkannten Mikro-Strukturen (X) in der zweiten und dritten Zeile von 4 für das Bild (Pi) zusätzlich als Punkte und die Verschiebungen (dX) als Linien eingezeichnet. In the mentioned frames (Pi, Pi + 1, Pi + 2), which are in the top line of 4 are shown already identified and in particular tracked micro-structures are located. The microstructures (X) detected in the second process section (PS2) are shown as bright dots. The microstructures tracked in the sequence of two images, ie the displacements (dX) of the traced microstructures from a first image (Pi) to a subsequent image (Pi + 1) are shown as red lines. For better visualization, the recognized microstructures (X) in the second and third rows of 4 for the image (Pi) additionally marked as points and the displacements (dX) as lines.

Die Mikro-Strukturen können auf beliebige Weise erkannt und nachverfolgt werden. In der Praxis sind verschiedene Verfahren zur Erkennung von Mikro-Strukturen sowie zur Nachverfolgung von Mikro-Strukturen vorgeschlagen worden, die alternativ oder in Kombination angewendet werden können. Bei der Erkennung von Mikro-Strukturen werden bevorzugt kleine Bildbereiche (Mikro-Bildbereiche) von beispielsweise 3 × 3 Pixeln bis 6 × 6 Pixeln oder 10 × 10 Pixeln auf besonders charakteristische Bildmuster überprüft. Solche Bildmuster können beispielsweise als Kreuzungsstellen von Kontrastübergängen, d.h. beispielsweise als Kreuzungen von zwei oder mehr Kontrastlinien, vorliegen. Die Winkel der jeweiligen Kontrastübergänge oder Kontrastlinien innerhalb eines Mikro-Bildbereichs auf schnelle Weise errechnet werden. Sobald eine Mikro-Struktur (X) in einem Bild (Pi) erkannt wurde, können deren Typ und Lage registriert werden. Wenn eine Mikro-Struktur (X) desselben Typs in einem Folgebild (Pi + 1) innerhalb eines vorbestimmten Bereichs um die Lage der zuvor registrierten Mikro-Struktur (X) erkannt wird, können diese beiden Mikro-Strukturen einander zugeordnet werden. Die Zuordnung von zwei Mikro-Strukturen (X) desselben Typs in einer Abfolge von Bildern (Pi, Pi + 1) mit Erfassung der Lageveränderung wird als Nachverfolgen bezeichnet. Die Veränderung der Lage aus dem ersten Bild (Pi) zu dem Folgebild (Pi + 1) kann als Verschiebung (dX) erkannt werden. Eine Vielzahl solcher Verschiebungen (dX) für eine Vielzahl von nachverfolgten Mikro-Strukturen bildet den optischen Fluss. Der optische Fluss kann als Vektorfeld ausgedrückt sein, in dem für jede Verschiebung (dX) die Ausgangslage, Richtung und Länge hinterlegt ist. Alternativ kann eine andere Darstellung der Verschiebungen (dX) gewählt sein. The microstructures can be recognized and tracked in any way. In practice, various methods for detecting microstructures and for tracking microstructures have been proposed, which may be used alternatively or in combination. In the recognition of micro-structures, preferably small image areas (micro-image areas) of, for example, 3 × 3 pixels to 6 × 6 pixels or 10 × 10 pixels are checked for particularly characteristic image patterns. Such image patterns can be present, for example, as crossing points of contrast transitions, ie, for example, as intersections of two or more contrast lines. The angles of the respective contrast transitions or contrast lines within a micro-image area can be calculated quickly. Once a microstructure (X) has been detected in an image (Pi), its type and position can be registered. When a microstructure (X) of the same type is recognized in a sequence image (Pi + 1) within a predetermined range around the position of the previously registered microstructure (X), these two microstructures can be associated with each other. The assignment of two microstructures (X) of the same type in a sequence of images (Pi, Pi + 1) with detection of the change in position is referred to as tracking. The change of the position from the first image (Pi) to the next image (Pi + 1) can be recognized as a shift (dX). A variety of such shifts (dX) for a variety of tracked microstructures forms the optical flow. The optical flow can be considered Vector field in which for each shift (dX) the starting position, direction and length is deposited. Alternatively, another representation of the displacements (dX) may be selected.

In dem zweiten Prozessabschnitt (PS2) wird bevorzugt eine mehrstufige Verarbeitung des Bildmaterials ausgeführt. Die einzelnen Verarbeitungsstufen können von der Art und Größe der aufgenommenen Bilder (Pi, Pi + 1, Pi + 2) sowie dem gewünschten Erkennungsergebnis abhängen. 3 zeigt einen beispielhaften Ablauf für die Erkennung von Mikro-Strukturen in dem zweiten Prozessabschnitt (PS2), der für die Erkennung von Fußgängern geeignet ist. In the second process section (PS2), multi-level processing of the image material is preferably carried out. The individual stages of processing may depend on the type and size of images taken (Pi, Pi + 1, Pi + 2) as well as the desired recognition result. 3 shows an exemplary procedure for the detection of microstructures in the second process section (PS2), which is suitable for the detection of pedestrians.

Die in 3 gezeigte Verarbeitung kann wiederholt und für jedes Einzelbild (Pi, Pi + 1, Pi + 2) in der Abfolge von Bildern von einer Kamera (K) ausgeführt werden. Alternativ kann die Verarbeitung nur für jedes zweite oder dritte Bild ausgeführt werden oder die Bilder von unterschiedlichen Kameras verarbeiten, wenn deren räumliche Beziehung bekannt ist. In the 3 The processing shown can be repeated and executed for each frame (Pi, Pi + 1, Pi + 2) in the sequence of pictures from a camera (K). Alternatively, the processing may be performed only for every second or third image or process the images from different cameras, if their spatial relationship is known.

Bei Schritt (S10) wird ein nächstes zu verarbeitendes Bild für die Erkennung eingelesen. Das Bild besteht in der Regel aus einer Vielzahl von Bildpunkten (Pixeln), die Helligkeitsinformationen und ggfs. Farbinformationen beinhalten. Für jeden Bildpunkt können ein oder mehrere Helligkeits- und ggfs. Farbwerte separat abgespeichert sein. At step (S10), a next image to be processed for recognition is read. The image usually consists of a plurality of pixels that contain brightness information and, if necessary, color information. For each pixel, one or more brightness and possibly color values can be stored separately.

Bei Schritt (S20) wird eine Vor-Verarbeitung des Bildes ausgeführt. Die Vor-Verarbeitung kann einer Optimierung des Bildmaterials für die späteren Verarbeitungsschritte dienen, insbesondere dem Ausgleich von Belichtungs-Verhältnissen, der Umwandlung in ein Schwarz-Weiß-Bild oder der Anpassung des Bildrauschens. At step (S20), pre-processing of the image is performed. The pre-processing can serve to optimize the image material for the later processing steps, in particular the compensation of exposure ratios, the conversion into a black-and-white image or the adaptation of the image noise.

Bei dem in 3 dargestellten Beispiel wird bei der Vorverarbeitung eine Gauß-Umwandlung ausgeführt (auch Gauß-Filterung genannt). Durch die Gauß-Umwandlung wird der Kontrast des Bildmaterials verändert. Mit anderen Worten wird ein Weichzeichnen oder Verwischen ausgeführt. Die Anwendung der Gauß-Bildverarbeitung kann für bestimmte Bildbereiche, bestimmte Bildfarben, bestimmte Helligkeitsbereiche oder eine Kombination der vorgenannten Bereiche in angepasster Weise ausgeführt werden. Durch die Gauß-Umwandlung kann erreicht werden, dass Kontraständerungen, die auf lokalen Reflexionen oder anderen unerwünschten optischen Effekten beruhen, eliminiert oder geglättet werden, damit sie die Erkennung der Objekten zuzuordnenden Mikro-Strukturen nicht oder weniger beeinflussen. At the in 3 In the example shown in the preprocessing, a Gaussian conversion is carried out (also called Gaussian filtering). The Gaussian transformation changes the contrast of the image material. In other words, blurring or blurring is performed. The application of Gaussian image processing can be carried out in an adapted manner for specific image areas, specific image colors, specific brightness areas or a combination of the aforementioned areas. The Gaussian conversion can be used to eliminate or smooth contrast changes that are based on local reflections or other unwanted optical effects, so that they do not influence or less affect the recognition of the microstructures to be assigned to the objects.

In dem nachfolgenden Schritt (S30) wird die Erkennung von Mikro-Strukturen jeweils in einem Einzelbild der Abfolge ausgeführt. Die Erkennung von Mikro-Strukturen kann auf beliebige Weise erfolgen. In dem vorliegenden Beispiel wird die sog. Harris-Corner-Verarbeitung ausgeführt. Alternativ kann eine andere bekannte Verarbeitung genutzt werden. Am Ende des Schritts (S30) liegt bevorzugt eine Auflistung über die in dem verarbeiteten Bild erkannten Mikro-Strukturen mit dem jeweiligen Typ und der jeweiligen Lage vor. In the subsequent step (S30), the recognition of micro-structures is carried out in each case in one frame of the sequence. The recognition of microstructures can be done in any way. In the present example, so-called Harris-Corner processing is performed. Alternatively, another known processing may be used. At the end of step (S30), a listing of the microstructures recognized in the processed image with the respective type and the respective position is preferably present.

Im nachfolgendem Schritt (S40) wird der optische Fluss von erkannten Mikro-Strukturen in der Abfolge des vorherigen Bildes (Pi) zum vorliegenden Bild (Pi + 1) ermittelt. Die für das vorherige Bild (Pi) registrierten Mirko-Strukturen (X) und die für das vorliegende Bild (Pi + 1) erkannten Mikro-Strukturen (X) werden miteinander verglichen, wobei übereinstimmende Mikro-Strukturen (X) nachverfolgt werden. Bevorzugt wird für jede nachverfolgte Mikro-Struktur (X) eine Verschiebung (dX) vom vorherigen Bild (Pi) zu dem vorliegenden (Pi + 1) registriert. Die Registrierung erfolgt beispielsweise in einem Vektorfeld. In the subsequent step (S40), the optical flow of detected micro-structures in the sequence of the previous image (Pi) to the present image (Pi + 1) is determined. The microstructures (X) registered for the previous image (Pi) and the microstructures (X) recognized for the present image (Pi + 1) are compared with each other, whereby matching microstructures (X) are traced. Preferably, for each tracked microstructure (X), a shift (dX) from the previous image (Pi) to the present one (Pi + 1) is registered. The registration takes place, for example, in a vector field.

Im Verarbeitungsschritt (S50) wird die lokale Verteilung und/oder die jeweilige Verschiebungsrichtung für die nachverfolgten Mikro-Strukturen analysiert. Dies kann beispielsweise mit bekannten mathematischen Analysemethoden auf der Basis der vorgenannten Vektorfeldes geschehen. Alternativ kann eine andere Analysemethode verwendet werden. Bei der Analyse können lokale Bildbereiche (Lok1, Lok2) mit einer erhöhten Dichte von erkannten und insbesondere nachverfolgten Mikro-Strukturen bestimmt werden. Solche Bildbereiche (Lok1, Lok2) sind in den Bildern in der untersten Zeile von 4 beispielhaft dargestellt. In the processing step (S50), the local distribution and / or the respective displacement direction is analyzed for the traced microstructures. This can be done for example with known mathematical analysis methods on the basis of the aforementioned vector field. Alternatively, another method of analysis may be used. In the analysis, local image areas (Lok1, Lok2) can be determined with an increased density of recognized and in particular traced microstructures. Such image areas (Lok1, Lok2) are in the pictures in the bottom line of 4 exemplified.

Alternativ oder zusätzlich können lokale Bildbereiche (Lok1, Lok2) erkannt werden, in denen eine bestimmte Orientierung der Verschiebungen (dX) vorliegt und/oder in denen mehrere unterschiedliche Orientierungen der Verschiebungen (dX) vorliegen. Für die Erkennung von Fußgängern können beispielsweise solche Bereiche wichtig sein, in denen die Orientierung einer Verschiebung (dX) in eine Vergleichsrichtung weist, in der eine Kollision mit der Fahrzeugbewegung drohen könnte. Alternativ oder zusätzlich können solche Bereiche wichtig sein, in denen viele unterschiedliche Orientierungen von mehreren Verschiebungen (dX) vorliegen. Dies kann auf eine Mehrzahl von Fußgängern oder anderen Verkehrsteilnehmern hindeuten. Alternatively or additionally, local image regions (Lok1, Lok2) can be detected in which there is a specific orientation of the displacements (dX) and / or in which there are several different orientations of the displacements (dX). For the detection of pedestrians, for example, areas may be important in which the orientation of a shift (dX) points in a comparison direction in which a collision with the vehicle movement could threaten. Alternatively or additionally, those regions may be important in which there are many different orientations of several shifts (dX). This may indicate a majority of pedestrians or other road users.

In Schritt (S60) werden Informationen über die erkannten und insbesondere nachverfolgten Mikro-Strukturen, insbesondere das Analyse-Ergebnis, an den ersten Prozessabschnitt (PS1) übertragen. Auf der Basis dieser Informationen wird eine Relevanzbewertung ausgeführt, um die Skalierung des in dem ersten Prozessabschnitt (PS1) ausgeführten Erkennungsprozesses vorzunehmen. Die Relevanzbewertung kann in beliebiger zweckdienlicher Weise erfolgen. Sie kann als Verarbeitungsschritt in dem ersten Prozessabschnitt (PS1) oder in dem zweiten Prozessabschnitt (PS2) oder in einem separaten Prozess ausgeführt werden. In step (S60), information about the detected and, in particular, tracked microstructures, in particular the analysis result, is transmitted to the first process section (PS1). Based on this information, a relevance score is performed to determine the scaling of the one performed in the first process section (PS1) Make recognition process. The relevance assessment can be done in any convenient way. It can be executed as a processing step in the first process section (PS1) or in the second process section (PS2) or in a separate process.

Im letzten Schritt (S70) werden Informationen über erkannte und/oder nachverfolgte Mikro-Strukturen, d.h. insbesondere Informationen über den optischen Fluss, an nachfolgende Verarbeitungen oder Anwendungen (App1 bis App9) übertragen. Dann endet die Verarbeitung einmalig. Sie kann für das jeweils nächste Bild (Pi + 2) erneut ausgeführt werden. In the final step (S70), information about recognized and / or tracked microstructures, i. in particular information about the optical flow, to subsequent processing or applications (App1 to App9) transmitted. Then the processing ends once. It can be executed again for the next picture (Pi + 2).

Für das Objekterkennungsverfahren gemäß der vorliegenden Offenbarung kann eine andere Ausbildung des zweiten Prozessabschnitts (PS2) gewählt sein, als die in 3 dargestellte. For the object recognition method according to the present disclosure, another configuration of the second process section (PS2) may be selected other than that in FIG 3 shown.

Bei der Objekterkennungstechnik gemäß der vorliegenden Offenbarung werden der erste Prozessabschnitt (PS1) und der zweite Prozessabschnitt (PS2) bevorzugt parallel oder zeitlich überlappend ausgeführt. Die beiden Prozessabschnitte (PS1,PS2) können dabei dieselben Einzelbilder (Pi, Pi + 1, Pi + 2) verarbeiten. Alternativ können die Prozessabschnitte (PS1, PS2) teilweise unterschiedliche Bilder verarbeiten. So kann einem der Prozessabschnitte (PS1, PS2) beispielsweise nur jedes zweite oder dritte Bild zugeführt werden, während der andere Prozessabschnitt (PS2, PS1) alle Bilder verarbeitet. In the object recognition technique according to the present disclosure, the first process section (PS1) and the second process section (PS2) are preferably performed in parallel or temporally overlapping. The two process sections (PS1, PS2) can process the same individual images (Pi, Pi + 1, Pi + 2). Alternatively, the process sections (PS1, PS2) can partially process different images. For example, one of the process sections (PS1, PS2) can be supplied with only every second or third image, while the other process section (PS2, PS1) processes all the images.

Nachfolgend wird eine beispielshafte Verarbeitung für die Erkennung von Makro-Strukturen in dem ersten Prozessabschnitt (PS1) erläutert. In dem Prozessabschnitt (PS1) können Makro-Strukturen (Y) grundsätzlich auf beliebige Weise erkannt werden. In der Praxis sind unterschiedliche Verfahren zur Erkennung von Makro-Strukturen in Einzelbildern vorgeschlagen worden, die sich für die Erkennung von verschiedenen Arten von Objekten (O1–O4) eignen. Diese Verfahren können einzeln oder in Kombination angewendet werden, wobei die Auswahl der Verfahren von der Art der zu erkennenden Objekte abhängen kann. Hereinafter, an exemplary processing for recognizing macrostructures in the first process section (PS1) will be explained. In the process section (PS1), macrostructures (Y) can basically be recognized in any way. In practice, various methods have been proposed for recognizing macrostructures in frames that are suitable for the detection of different types of objects (O1-O4). These methods can be used individually or in combination, and the selection of the methods may depend on the type of objects to be recognized.

In 6 ist eine bevorzugte Verarbeitung zur Erkennung von Makro-Strukturen in dem ersten Prozessabschnitt (PS1) beispielhaft dargestellt, die für die Erkennung von Fußgängern geeignet ist. Bei einem ersten Schritt (S110) wird das nächste zu verarbeitende Bild (Pi + 1) eingelesen. Es kann dieselbe Form und Größe haben, wie das in Schritt (S10) gemäß 3 eingelesene Bild. In 6 For example, a preferred processing for recognizing macrostructures is exemplified in the first process section (PS1) suitable for the recognition of pedestrians. In a first step (S110), the next image to be processed (Pi + 1) is read. It may have the same shape and size as that in step (S10) according to FIG 3 read picture.

Im nachfolgenden Schritt (S120) kann eine Vor-Verarbeitung des Bildmaterials ausgeführt werden. Eine Vor-Verarbeitung kann auch hier in beliebiger Weise gewählt sein und der Optimierung des Bildmaterials für die weiteren Erkennungsschritte dienen. Es können insbesondere eine Größenveränderung (Größenskalierung), eine Kontrastanpassung, eine Kantenerkennung, eine Beeinflussung des Bildrauschens oder ähnliche Verarbeitungen ausgeführt werden. In the subsequent step (S120), pre-processing of the image material may be performed. A pre-processing can also be chosen here in any way and serve the optimization of the image material for further detection steps. In particular, a size change (size scaling), a contrast adjustment, an edge detection, an influence of the image noise or similar processing can be carried out.

Im Schritt (S130) wird eine Relevanzbewertung für lokale Bildbereiche des derzeit verarbeiteten Einzelbildes (Pi + 1) ausgeführt. Die Relevanzbewertung kann in unterschiedlicher Weise erfolgen. Sie kann insbesondere von den jeweils zu erkennenden Makro-Strukturen und/oder Objekten abhängen. Die Relevanzbewertung wird auf Basis der von dem zweiten Prozessabschnitt (PS2) zugeführten Informationen über die dort erkannten und insbesondere nachverfolgten Mikro-Strukturen ausgeführt. In step (S130), a relevance score for local image areas of the currently processed frame (Pi + 1) is executed. The relevance assessment can be done in different ways. In particular, it can depend on the respective macro-structures and / or objects to be recognized. The relevance evaluation is carried out on the basis of the information supplied by the second process section (PS2) via the microstructures recognized there and in particular tracked there.

Für die Erkennung von Fußgängern ist es beispielsweise sinnvoll, solche Bildbereiche (Lok1, Lok2) mit einer höheren Relevanz zu bewerten, in denen eine hohe Dichte an erkannten und insbesondere an nachverfolgten Mikro-Strukturen (X, dX) vorliegt. Alternativ oder zusätzlich sind für die Fußgängererkennung solche lokalen Bildbereiche mit einer höheren Relevanz zu bewerten, in denen die Orientierung der Verschiebungen (dX) von nachverfolgten Mikro-Strukturen (X) in einer Richtung zu dem Fahrzeug (3) hin, das heißt beispielsweise für die Bilder der Frontkamera (K1) in einer Richtung zur Bildmitte hin ausgerichtet ist. Weiterhin können solche lokalen Bildbereiche mit einer höheren Relevanz bewertet werden, in denen mehrere unterschiedliche Orientierungen für Verschiebungen (dX) von nachverfolgten Mikro-Strukturen (X) auftreten. For the detection of pedestrians, for example, it makes sense to evaluate those image areas (Lok1, Lok2) with a higher relevance, in which there is a high density of recognized and in particular of tracked microstructures (X, dX). Alternatively or additionally, for the pedestrian recognition, those local image areas with a higher relevance are to be evaluated, in which the orientation of the displacements (dX) of tracked microstructures (X) in one direction to the vehicle (FIG. 3 ), that is, for example, is aligned for the images of the front camera (K1) in a direction towards the center of the image. Furthermore, such local image areas can be evaluated with a higher relevance, in which several different orientations for shifts (dX) of traced microstructures (X) occur.

Die Erkennung von Makro-Strukturen kann bevorzugt durch einen Vergleichsprozess erfolgen, bei dem ein Vergleich von Bildinformationen eines ausgewählten Bildbereichs mit einem oder mehreren Strukturmustern ausgeführt wird. Dieser Vergleichsprozess kann bevorzugt mit einem sog. gleitenden Suchfenster (sliding search window) ausgeführt werden. Das Suchfenster hat eine vorbestimmte und ggfs. einstellbare Größe und wird iterativ über die als relevant bewerteten Bildbereiche bewegt. Bei jeder Ausführung des Vergleichsprozesses wird der momentane Inhalt des Suchfensters für den Vergleich berücksichtigt, d.h. die darin enthaltenen Bildinformationen (Pixel). Die Größe und/oder Auflösung der Strukturmuster, zu denen ein Vergleich ausgeführt wird, ist bevorzugt wählbar und kann in Abhängigkeit von der Relevanzbewertung festgelegt werden. Mit anderen Worten kann für unterschiedliche Bildbereiche (Lok1, Lok2) in Abhängigkeit von der jeweiligen Relevanzbewertung eine unterschiedliche Detaillierung für den Vergleichsprozess gewählt werden. So kann für Bereiche mit der höchsten Relevanz eine hohe Zahl und eine hohe Detaillierung von Strukturmustern verwendet werden. Alternativ oder zusätzlich kann eine Versatzweite des gleitenden Suchfensters von einer Verarbeitung zur nächsten sehr fein gewählt werden. Hierdurch wird eine feine und exakte Erkennung erreicht. The recognition of macro-structures may preferably be performed by a comparison process in which a comparison of image information of a selected image area with one or more structural patterns is performed. This comparison process can preferably be carried out with a so-called sliding search window. The search window has a predetermined and optionally adjustable size and is moved iteratively over the image areas that are evaluated as being relevant. Each time the comparison process is performed, the current content of the search window is taken into account for comparison, that is, the image information (pixels) contained therein. The size and / or resolution of the structural patterns for which a comparison is made is preferably selectable and may be determined depending on the relevance score. In other words, a different detailing for the comparison process can be selected for different image areas (Lok1, Lok2) depending on the respective relevance score. Thus, for areas with the highest relevance, a high number and a high degree of detail of structure patterns can be used. Alternatively or In addition, an offset range of the sliding search window can be selected to be very fine from one processing to the next. As a result, a fine and accurate detection is achieved.

Wenn die mit hoher Relevanz bewerteten Bildbereiche abgearbeitet worden sind kann optional in Schritt (S150) eine weitere Erkennung von Makro-Strukturen in lokalen Bildbereichen mit einer niedrigeren Relevanz ausgeführt werden. Die Ausführung von Schritt (S150) kann ebenfalls von der Relevanzbewertung abhängig gemacht werden. Für diese anderen Bereiche mit einer niedrigeren Relevanz kann die Erkennung bspw. grob und mit einer geringeren Zahl von Strukturmustern ausgeführt werden. Je nach Verfügbarkeit von freier Rechenzeit kann die Ausführung des Schritts (S150) ggfs. mit höheren Detailgraden wiederholt werden. If the image areas evaluated with high relevance have been processed, optionally in step (S150) a further recognition of macrostructures in local image areas having a lower relevance can be carried out. The execution of step (S150) may also be made dependent on the relevance score. For these other areas with a lower relevance, the recognition can be carried out, for example, roughly and with a smaller number of structure patterns. Depending on the availability of free computing time, the execution of step (S150) may be repeated with higher levels of detail, if necessary.

In einem letzten Schritt (S160) können die in den vorhergehenden Schritten (S140, S150) erzeugten Informationen über erkannte Makro-Strukturen an nachfolgende Verarbeitungen oder Anwendungen (App1 bis App9) übermittelt werden. Dann wird die Verarbeitung beendet, um ggf. für das nächste Bild erneut ausgeführt zu werden. In a final step (S160), the information about detected macrostructures generated in the preceding steps (S140, S150) can be transmitted to subsequent processes or applications (App1 to App9). Then, the processing is ended to be executed again for the next picture, if necessary.

Die Erkennung von Objekten, insbesondere die Zuweisung von erkannten Makro-Strukturen zu Objekten, kann in einer der nachfolgenden Anwendungen (App1–App9) oder in einem weiteren Verarbeitungsschritt innerhalb des Erkennungsprozesses (RP) erfolgen. Alternativ kann die Erkennung als Teil des ersten Prozessabschnittes (PS1) oder des zweiten Prozessabschnittes (PS2) erfolgen. The recognition of objects, in particular the assignment of recognized macro structures to objects, can take place in one of the subsequent applications (App1-App9) or in a further processing step within the recognition process (RP). Alternatively, the detection can be done as part of the first process section (PS1) or the second process section (PS2).

Der Vergleich von Bildinhalten, insbesondere den Bildinhalten des gleitenden Suchfensters, mit Strukturmustern kann auf beliebige Weise erfolgen. Es sind verschiedene Vergleichsverfahren bekannt, die einzeln oder in Kombination genutzt werden können. Für die Erkennung von Fußgängern hat es sich als vorteilhaft erwiesen, Strukturmuster in der Form von Histogrammen von gerichteten Gradienten (histogram of oriented gradients) (HOG) zu verwenden. Das zugehörige Erkennungs- oder Vergleichsverfahren wird im Folgenden als HOG Erkennungsverfahren bezeichnet. Das HOG-Verfahren ist beispielsweise aus der Veröffentlichung Dalal, N., Triggs, B.: „Histograms of Oriented Gradients for Human Detection“, IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886–893, 2005 oder der Veröffentlichung Harris, C., Stephens, M.: „A combined corner and edge detector“, Proceedings oft he 4th Alvey Vision Conference, pp. 147–151, 1988 bekannt. The comparison of image contents, in particular the image contents of the sliding search window, with structural patterns can be carried out in any desired manner. Various comparative methods are known which can be used individually or in combination. For the detection of pedestrians, it has proven advantageous to use structure patterns in the form of histograms of oriented gradients (HOG). The associated recognition or comparison method is referred to below as the HOG recognition method. The HOG method is for example from the publication Dalal, N., Triggs, B .: "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893, 2005 or the publication Harris, C., Stephens, M .: "A combined corner and edge detector", proceedings often he 4th Alvey Vision Conference, pp. 147-151, 1988 known.

Beim HOG Erkennungsverfahren wird ein lokaler Bildbereich, der dem Vergleich zugeführt werden soll, in Zellen unterteilt. Jede der Zellen hat eine vorgegebene Größe von beispielsweise 8×8 Pixeln. Innerhalb jeder Zelle wird ein Gradient der Helligkeitsverteilung berechnet. Dieser Gradient kann in vorgegebenen Winkelbereichen, beispielsweise in 8 oder 18 Bereichen zur Abdeckung der Winkel von 0° bis 360° angegeben werden. Der Gradient gibt dabei an, in welcher Richtung sich die größte Helligkeitsveränderung errechnet. Der Gradient kann ferner die Intensität der Helligkeitsveränderung wiedergeben. In the HOG recognition method, a local image area to be compared is divided into cells. Each of the cells has a predetermined size of, for example, 8x8 pixels. Within each cell, a gradient of the brightness distribution is calculated. This gradient can be given in predetermined angular ranges, for example in 8 or 18 ranges for covering the angles from 0 ° to 360 °. The gradient indicates in which direction the greatest change in brightness is calculated. The gradient may also reflect the intensity of the brightness change.

Für jede der in dem Bildbereich definierten Zellen wird sodann ein Histogramm der Gradienten erstellt und abgespeichert. Mit anderen Worten werden die erkannten Gradienten nach deren Richtung geordnet und gruppenweise gezählt. Jede Gruppe entspricht einem der vorgegebenen Winkelbereiche. For each of the cells defined in the image area, a histogram of the gradients is then created and stored. In other words, the detected gradients are ordered according to their direction and counted in groups. Each group corresponds to one of the given angular ranges.

Ein Strukturmuster kann einen Makro-Block von mehreren solchen Zellen umfassen, für die charakteristische Verteilungen von Gradienten festgelegt sind. Ein Objektmuster kann eine Mehrzahl von Strukturmustern beinhalten. Die Zahl der in dem ersten Prozessabschnitt in den Vergleich einzubeziehenden Strukturmuster und/oder die Auflösung oder Größe der in dem ersten Prozessabschnitt zu verwendenden Suchfenster und/oder Strukturmuster kann in Abhängigkeit von der Relevanzbewertung festgelegt sein. A texture pattern may comprise a macroblock of a plurality of such cells for which characteristic distributions of gradients are specified. An object pattern may include a plurality of texture patterns. The number of structure patterns to be included in the comparison in the first process section and / or the resolution or size of the search windows and / or structure patterns to be used in the first process section may be determined as a function of the relevance evaluation.

In den 4 und 5 sind Erkennungsergebnisse eines Objekterkennungsverfahrens gemäß der vorliegenden Offenbarung beispielhaft verdeutlicht. Wie oben bereits ausgeführt wurde, zeigt 4 in der oberen Zeile eine Abfolge von drei Einzelbildern (Pi, Pi + 1, Pi + 2) als Originalbilder. In diesen Bildern sind durch den zweiten Prozessabschnitt (PS2) erkannte Mikro-Strukturen (X) sowie Verschiebungen (dX) von nachverfolgten Mikro-Strukturen (X) eingezeichnet. In the 4 and 5 For example, recognition results of an object recognition method according to the present disclosure are exemplified. As already stated above, shows 4 in the upper line a sequence of three single images (Pi, Pi + 1, Pi + 2) as original images. In these images, microstructures (X) detected by the second process section (PS2) and displacements (dX) by traced microstructures (X) are shown.

In den Bildern in der zweiten Zeile von 4 sind Kontrastlinien aus den jeweils darüber liegenden Originalbildern hervorgehoben. Die Kontrastlinien können beispielsweise bei der Vor-Verarbeitung durch eine Kantenerfassung erzeugt werden. Eine solche Kantenerfassung ist auch als Gradient Image Processing bekannt. Die Kantenerfassung kann in unterschiedlichen Richtungen, beispielsweise in einer horizontalen und einer vertikalen Richtung durchgeführt werden, wobei jeweils horizontale und vertikale Kontrastübergänge separat hervorgehoben werden. Die Kantenerfassung kann alternativ oder zusätzlich zu der Gauß-Bildverarbeitung in Schritt (S20) der Verarbeitung in dem zweiten Prozessabschnitt (PS2) ausgeführt werden. In the pictures in the second line of 4 Contrast lines are highlighted from the respective original images above. The contrast lines can be generated, for example, in the pre-processing by edge detection. Such edge detection is also known as gradient image processing. The edge detection can be performed in different directions, for example in a horizontal and a vertical direction, with each horizontal and vertical contrast transitions are highlighted separately. The edge detection may be performed alternatively or in addition to the Gaussian image processing in step (S20) of the processing in the second process section (PS2).

In den Bildern in der unteren Zeile von 4 sind Bildbereiche (Lok1, Lok2) mit einer erhöhten Dichte von erkannten und insbesondere von nachverfolgten Mikro-Strukturen markiert. Diese lokalen Bildbereiche (Lok1 und Lok2) können auch als Relevanzbereiche bezeichnet werden. Jedem Relevanzbereich kann ein bestimmter Relevanzgrad zugeordnet sein. In dem linken unteren Bild von 4 ist zusätzlich die lokale Anordnung und Verteilung der erkannten Mikro-Strukturen dargestellt. In the pictures in the bottom line of 4 Image areas (Lok1, Lok2) are marked with an increased density of recognized and in particular traced microstructures. These local image areas (Lok1 and Lok2) can also be called Relevance areas are called. Each relevance area can be assigned a certain degree of relevance. In the lower left picture of 4 In addition, the local arrangement and distribution of the detected microstructures is shown.

In der oberen Zeile von 5 sind erneut die mit hoher oder erhöhter Relevanz bewerteten Bildbereiche (Lok1, Lok2) hervorgehoben, in denen eine Erkennung von Makro-Strukturen gemäß Schritt (S140) ausgeführt wird. In den Bildern in der unteren Zeile von 5 sind dann die jeweils erkannten Makro-Strukturen (Y) sowie aus mehreren Makro-Strukturen zusammengesetzte erkannte Objekte (O), hier erkannte Fußgänger, eingezeichnet. In the top line of 5 are again highlighted the high or increased relevance evaluated image areas (Lok1, Lok2) in which a recognition of macro-structures according to step (S140) is performed. In the pictures in the bottom line of 5 Then the respectively recognized macro-structures (Y) as well as recognized macroscopic structures recognized objects (O), here recognized pedestrians, are drawn.

Durch die Übertragung von Ergebnissen aus dem zweiten Prozessabschnitt (PS2) über erkannte und insbesondere nachverfolgte Mikro-Strukturen (X, dX) kann der in dem ersten Prozessabschnitt (PS1) ausgeführte Vorgang zur Erkennung von Makro-Strukturen (Y) deutlich optimiert werden. Insbesondere können solche Bildbereiche priorisiert verarbeitet werden, in denen gemäß der Bewertung des optischen Flusses Objekte mit einem erhöhten Kollisionsrisiko oder eine erhöhte Objektdichte vorliegen könnten. Hierdurch können sicherheitskritische Fremd-Objekte (O1, O2) in der Umgebung des Fahrzeugs (3) und insbesondere Fußgänger schneller erkannt werden. Weiterhin wird die Wahrscheinlichkeit erhöht, dass relevante Fremd-Objekte erkannt werden, ohne den Gesamt-Rechenaufwand für den Erkennungsprozess (RP) erhöhen zu müssen. Mit anderen Worten wird erreicht, dass eine aufwändige Verarbeitung von solchen Bildbereichen ausgeschlossen wird, in denen vermutlich keine oder unkritische Fremdobjekte vorhanden sind. Andererseits werden Bildbereiche, in denen vermutlich viele oder sicherheitskritische Fremd-Objekte vorhanden sind, bevorzugt verarbeitet. Hierdurch kann insgesamt die Effizienz der Objekterkennungstechnologie erhöht werden. By transmitting results from the second process section (PS2) via recognized and in particular tracked microstructures (X, dX), the process for recognizing macrostructures (Y) executed in the first process section (PS1) can be significantly optimized. In particular, those image regions can be prioritized in which, according to the evaluation of the optical flow, objects with an increased risk of collision or an increased object density could exist. As a result, safety-critical foreign objects (O1, O2) in the vicinity of the vehicle ( 3 ) and in particular pedestrians are detected faster. It also increases the likelihood that relevant alien objects will be detected without increasing the overall computational cost of the recognition process (RP). In other words, it is achieved that elaborate processing is excluded from image areas in which there are presumably no or noncritical foreign objects. On the other hand, image areas in which presumably many or security-critical foreign objects are present are preferably processed. As a result, the overall efficiency of the object recognition technology can be increased.

Abwandlungen der Erfindung sind in verschiedener Weise möglich. Insbesondere können die zu den einzelnen Ausführungsbeispielen gezeigten oder beschriebenen Merkmale in beliebiger Weise miteinander kombiniert, gegeneinander ersetzt, ergänzt oder weggelassen werden. Modifications of the invention are possible in various ways. In particular, the features shown or described with respect to the individual embodiments can be combined with one another in any desired manner, replaced with one another, supplemented or omitted.

Die Kameras (K1 bis K4) können beliebig ausgebildet sein. Sie können ein schwarz-Weiß-Bild oder ein Farbbild aufnehmen. Es können insbesondere CMOS-Kameras mit einer Bildgröße von 1280×800 oder mehr Pixeln und einer Bildaufnahmefrequenz von 30 Hz eingesetzt werden. Anstelle der vorgenannten Strukturmuster und Objektmuster für die Erkennung von Fußgängern können andere Strukturmuster oder Objektmuster eingesetzt werden. Diese Muster können beispielsweise der Erkennung von anderen Verkehrsteilnehmern wie Autos, Lastkraftwagen oder Fahrradfahrern dienen. Alternativ oder zusätzlich können Muster verwendet werden, die der Erkennung von üblicherweise stehenden Umgebungsobjekten, wie Häusern, Straßenlaternen, Straßenschildern, Fahrbahnbegrenzungen, Randsteinen oder Ähnlichem dienen. Die Muster können andere Größen haben sowie andere Vergleichsverfahren als das oben genannte HOG-Erkennungsverfahren nutzen. Es kann auch eine Mischung von unterschiedlichen Erkennungsverfahren und Muster-Typen verwendet werden. The cameras (K1 to K4) can be configured as desired. You can take a black and white picture or a color picture. In particular, CMOS cameras with an image size of 1280 × 800 or more pixels and an image acquisition frequency of 30 Hz can be used. Instead of the aforementioned structure patterns and object patterns for the recognition of pedestrians, other structure patterns or object patterns may be used. These patterns can serve, for example, the recognition of other road users such as cars, trucks or cyclists. Alternatively or additionally, patterns may be used to detect commonly-encountered environmental objects such as houses, street lights, street signs, lane boundaries, curbs, or the like. The patterns may have different sizes and use comparison methods other than the HOG recognition method mentioned above. A mixture of different recognition methods and pattern types can also be used.

Ferner können die Objektmuster und Strukturmuster in unterschiedlichen Auflösungen oder Detaillierungen vorliegen. Furthermore, the object patterns and pattern may be in different resolutions or detailing.

Die in dem zweiten Prozessabschnitt (PS2) erfassten Informationen über die erkannten und insbesondere nachverfolgten Mikro-Strukturen können blockweise oder kontinuierlich zu dem ersten Prozessabschnitt (PS1) übertragen werden. Hierdurch lässt sich eine hohe Parallelisierung der Verarbeitungen in den Prozessabschnitten (PS1, PS2) erreichen. Beispielsweise können die zu verarbeitenden Bilder in mehrere Verarbeitungszonen aufgeteilt werden, die mit einer vorgegebenen Reihenfolge prozessiert werden. Die Erkennungsergebnisse aus dem zweiten Prozessabschnitt (PS2) können für jede dieser Zonen separat an den ersten Prozessabschnitt übermittelt werden, sodass mit einer sehr kurzen zeitlichen Verzögerung die relevanten Bereiche festlegbar sind. Bei der Verarbeitung eines Bildes von der Front-Umgebung des Fahrzeugs in dem zweiten Prozessabschnitt können so zuerst Mikro-Strukturen in der Bildmitte sowie im mittleren rechten und mittleren linken Bereich verarbeitet werden. In diesen Bereichen ist am ehesten mit kollisionsfähigen Objekten zu rechnen. In dem ersten Prozessabschnitt (PS1) kann entsprechend zunächst in den relevanten Bereichen dieser Zonen mit der Erkennung von Makro-Strukturen begonnen werden. Im weiteren zeitlichen Verlauf können für dasselbe verarbeite Bild (Pi + 1) dann Erkennungs-Informationen über Mikro-Strukturen in den weiteren Zonen an den ersten Prozessabschnitt (PS1) nachgeliefert werden, sodass auch in den dort befindlichen relevanten Bereichen die Erkennung von Makro-Strukturen fortgesetzt werden kann. The information acquired in the second process section (PS2) about the identified and, in particular, tracked microstructures can be transmitted in blocks or continuously to the first process section (PS1). This makes it possible to achieve high parallelization of the processings in the process sections (PS1, PS2). For example, the images to be processed can be divided into several processing zones, which are processed in a predetermined order. The recognition results from the second process section (PS2) can be transmitted separately to the first process section for each of these zones, so that the relevant areas can be established with a very short time delay. When processing an image from the front environment of the vehicle in the second process section, it is thus possible first to process microstructures in the center of the image and in the middle right and middle left regions. Collision-capable objects are most likely to be expected in these areas. In the first process section (PS1), the detection of macrostructures can accordingly commence first in the relevant areas of these zones. In the further course of time, for the same processed image (Pi + 1), recognition information about microstructures in the further zones can then be supplied to the first process section (PS1), so that the recognition of macrostructures in the relevant areas located there as well can be continued.

Die Relevanzbewertung kann in beliebiger Weise erfolgen. Beispielsweise können unterschiedliche Relevanzklassen vorgesehen werden, wobei die Bildbereiche, denen die höchste Relevanzklasse zugeordnet ist, als Erstes für die Erkennung von Makro-Strukturen in dem ersten Prozessabschnitt (PS1) berücksichtigt werden. Nachfolgend können die weiteren Bildbereiche mit jeweils absteigender Relevanz verarbeitet werden. Die Erkennung von Makro-Strukturen kann insgesamt zeitlich beschränkt sein und beispielsweise bei Erreichen einer maximalen Verarbeitungstaktlänge abgebrochen werden. Alternativ kann für einzelne Bilder aus der Bildfolge eine vollständige Prüfung auf das Vorhandensein von erkennbaren Makro-Strukturen erfolgen. Hierdurch werden auch solche Bildbereiche, denen eine niedrige Relevanz zugeordnet ist, gelegentlich einer feinen Erkennung unterzogen. The relevance assessment can be done in any way. For example, different relevance classes can be provided, wherein the image areas to which the highest relevance class is assigned are considered first for the recognition of macrostructures in the first process section (PS1). Subsequently, the other image areas can be processed with decreasing relevance. The recognition of macro-structures can be limited in time overall and for example, be aborted when reaching a maximum processing cycle length. Alternatively, a complete check for the presence of recognizable macro-structures can take place for individual images from the image sequence. As a result, even those image areas, which are assigned a low relevance, occasionally subjected to a fine detection.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Objekterkennungssystem – Object recognition system Object recognition system - Object recognition system
2 2
Elektronische Steuereinheit (ECU) – Electronic control unit (ECU)Electronic control unit (ECU) - Electronic control unit (ECU)
33
Fahrzeug – Vehicle  Vehicle - Vehicle
XX
Mikro-Struktur – Micro structure  Micro structure - Micro structure
dXdX
Verschiebung einer nachverfolgten Mikro-Struktur – Displacement of a tracked microstructure Displacement of a tracked microstructure - Displacement of a tracked microstructure
YY
Makro-Struktur – Macro structure  Macro structure - Macro structure
RPRP
Erkennungsprozess – Recognition process  Recognition process - Recognition process
PS1PS1
Erster Prozessabschnitt – First process section  First process section - First process section
PS2PS2
Zweiter Prozessabschnitt – Second process section  Second process section - Second process section
Pipi
Bild – Picture  Picture - Picture
K,K
Kamera / – Camera / picture  Camera / - Camera / picture
KiKi
Bildaufzeichnungsgerät – recording device  Image recorder - recording device
O,O,
Objekt / Fremdobjekt – Object / Foreign  Object / Foreign Object - Object / Foreign
Oi Oi
object object
Appi Appi
Anwendung / Verarbeitung – Application / ProcessingApplication / Processing - Application / Processing
HOGHOG
Histogramm von gerichteten Gradienten – Histrogram of oriented gradients Histogram of directed gradients - Histrogram of oriented gradients

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • JP 2011253214 A [0002] JP 2011253214 A [0002]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Dalal, N., Triggs, B.: „Histograms of Oriented Gradients for Human Detection“, IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886–893, 2005 [0054] Dalal, N., Triggs, B .: "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893, 2005 [0054]
  • Harris, C., Stephens, M.: „A combined corner and edge detector“, Proceedings oft he 4th Alvey Vision Conference, pp. 147–151, 1988 [0054] Harris, C., Stephens, M .: "A combined corner and edge detector", proceedings often he 4th Alvey Vision Conference, pp. 147-151, 1988 [0054]

Claims (16)

Kamerabasiertes Objekterkennungsverfahren zur Erkennung von Objekten (O1–O4) in der Umgebung eines Fahrzeugs (3), wobei einem Erkennungsprozess (RP) wiederkehrend Bilder (Pi, Pi + 1, Pi + 2) von der Umgebung des Fahrzeugs (3) mit einer bekannten zeitlichen Abfolge zugeführt werden, die von einer oder mehreren an dem Fahrzeug (3) angeordneten Kameras (K1–K4) aufgenommen sind, und wobei der Erkennungsprozess (RP) zumindest einen ersten Prozessabschnitt (PS1) zur Erkennung von Makro-Strukturen (Y) innerhalb von Einzelbildern (Pi) und einen zweiten Prozessabschnitt (PS2) zur Erkennung von Mikro-Strukturen (X) aufweist, dadurch gekennzeichnet, dass Ergebnisinformationen aus dem zweiten Prozessabschnitt (PS2) über erkannte Mikro-Strukturen (Y) dem ersten Prozessabschnitt (PS1) zugeführt werden, um eine Relevanzbewertung für lokale Bildbereiche (Lok1, Lok2) vorzunehmen und den in dem ersten Prozessabschnitt (PS1) durchgeführten Vorgang zur Erkennung der Makro-Strukturen (Y) zu skalieren. Camera-based object recognition method for detecting objects (O1-O4) in the surroundings of a vehicle ( 3 ), wherein a recognition process (RP) recurring images (Pi, Pi + 1, Pi + 2) from the environment of the vehicle ( 3 ) are supplied with a known chronological sequence, which is determined by one or more on the vehicle ( 3 ), wherein the recognition process (RP) comprises at least a first process section (PS1) for recognizing macro-structures (Y) within individual images (Pi) and a second process section (PS2) for recognizing Having micro-structures (X), characterized in that result information from the second process section (PS2) via detected micro-structures (Y) to the first process section (PS1) are supplied to make a relevance assessment for local image areas (Lok1, Lok2) and to scale the process performed in the first process section (PS1) to recognize the macro-structures (Y). Objekterkennungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Makro-Strukturen (Y) statische Makro-Strukturen sind, insbesondere spezifische Objektformen. Object recognition method according to claim 1, characterized in that the macro-structures (Y) are static macro-structures, in particular specific object shapes. Objekterkennungsverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Mikro-Strukturen (X) in einer Abfolge von mindestens zwei Bildern (Pi, Pi + 1) nachverfolgt werden. Object recognition method according to claim 1 or 2, characterized in that the microstructures (X) are tracked in a sequence of at least two images (Pi, Pi + 1). Objekterkennungsverfahren nach mindestens einem der Ansprüche 1, 2 oder 3, dadurch gekennzeichnet, dass in dem zweiten Prozessabschnitt (PS2) erkannte Mikro-Strukturen (X) in einer Abfolge von mindestens zwei Bildern (Pi, Pi + 1, Pi + 2) nachverfolgt werden. Object recognition method according to at least one of claims 1, 2 or 3, characterized in that in the second process section (PS2) detected micro-structures (X) are tracked in a sequence of at least two images (Pi, Pi + 1, Pi + 2) , Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in dem zweiten Prozessabschnitt (PS2) Verschiebungen (dX) von nachverfolgten Mikro-Strukturen (X) erfasst werden. Object recognition method according to one of the preceding claims, characterized in that in the second process section (PS2) shifts (dX) of tracked micro-structures (X) are detected. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der erste Prozessabschnitt (PS1) und der zweite Prozessabschnitt (PS2) parallel oder zeitlich überlappend ausgeführt werden. Object recognition method according to one of the preceding claims, characterized in that the first process section (PS1) and the second process section (PS2) are executed in parallel or overlapping in time. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die in dem ersten Prozessabschnitt (PS1) erkannten Makro-Strukturen (Y) zur Erkennung von bestimmten Objekten (O1–O4), insbesondere zur Erkennung von Fußgängern, weiterverarbeitet werden. Object recognition method according to one of the preceding claims, characterized in that in the first process section (PS1) recognized macro-structures (Y) for the detection of certain objects (O1-O4), in particular for the detection of pedestrians, further processed. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in dem ersten Prozessabschnitt (PS1) ein Vergleich eines ausgewählten Bildbereichs eines Einzelbildes (Pi) mit einem oder mehreren Strukturmustern ausgeführt wird. Object recognition method according to one of the preceding claims, characterized in that in the first process section (PS1) a comparison of a selected image area of a single image (Pi) is carried out with one or more structural patterns. Objekterkennungsverfahren nach Anspruch 6, dadurch gekennzeichnet, dass der Vergleich mit einem gleitenden Suchfenster ausgeführt wird, wobei der Inhalt des Suchfensters mit einem Strukturmuster verglichen wird. Object recognition method according to claim 6, characterized in that the comparison is carried out with a sliding search window, wherein the content of the search window is compared with a structural pattern. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die in dem ersten Prozessabschnitt (PS1) verarbeiteten Strukturmuster als Histogramm von gerichteten Gradienten (HOG) abgelegt sind. Object recognition method according to one of the preceding claims, characterized in that the structural patterns processed in the first process section (PS1) are filed as a histogram of directed gradients (HOG). Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zahl der in dem ersten Prozessabschnitt (PS1) in den Vergleich einzubeziehenden Strukturmuster in Abhängigkeit von der Relevanzbewertung festgelegt wird. Object recognition method according to one of the preceding claims, characterized in that the number of structural patterns to be included in the comparison in the first process section (PS1) is determined as a function of the relevance score. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auflösung und/oder Größe der in dem ersten Prozessabschnitt (PS1) verwendeten Suchfenster in Abhängigkeit von der Relevanzbewertung festgelegt wird. Object recognition method according to one of the preceding claims, characterized in that the resolution and / or size of the search window used in the first process section (PS1) is determined as a function of the relevance score. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auflösung und/oder Größe der in dem ersten Prozessabschnitt (PS1) verwendeten Strukturmuster in Abhängigkeit von der Relevanzbewertung festgelegt wird. Object recognition method according to one of the preceding claims, characterized in that the resolution and / or size of the structure pattern used in the first process section (PS1) is determined depending on the relevance score. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildbereiche (Lok1, Lok2) eines Einzelbildes (Pi, Pi + 1, Pi + 2), die in dem ersten Prozessabschnitt (PS1) priorisiert zu verarbeiten sind, in Abhängigkeit von der Relevanzbewertung ausgewählt werden. Object recognition method according to one of the preceding claims, characterized in that the image areas (Lok1, Lok2) of a single image (Pi, Pi + 1, Pi + 2), which are to be processed prioritized in the first process section (PS1), depending on the relevance score to be selected. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in dem zweiten Prozessabschnitt (PS2) ein Erkennen und insbesondere Nachverfolgen von Mikro-Strukturen (X) nach dem Harris-Corner Prozess ausgeführt wird. Object recognition method according to one of the preceding claims, characterized in that in the second process section (PS2) a recognition and in particular tracking of microstructures (X) is carried out according to the Harris-Corner process. Objekterkennungssystem (1) zur Erkennung von Objekten (O1–O4) in der Umgebung eines Fahrzeugs (3), wobei das System (1) zumindest eine Kamera (K1–K4) und eine ECU (2) aufweist, dadurch gekennzeichnet, dass die ECU (2) dazu ausgebildet ist, ein Verfahren nach einem der vorhergehenden Ansprüche auszuführen. Object recognition system ( 1 ) for detecting objects (O1-O4) in the vicinity of a vehicle ( 3 ), whereby the system ( 1 ) at least one camera (K1-K4) and an ECU ( 2 ), characterized in that the ECU ( 2 ) trained is to carry out a method according to any one of the preceding claims.
DE201310109604 2013-09-03 2013-09-03 Camera-based object recognition technology Ceased DE102013109604A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201310109604 DE102013109604A1 (en) 2013-09-03 2013-09-03 Camera-based object recognition technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310109604 DE102013109604A1 (en) 2013-09-03 2013-09-03 Camera-based object recognition technology

Publications (1)

Publication Number Publication Date
DE102013109604A1 true DE102013109604A1 (en) 2015-03-19

Family

ID=52579736

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310109604 Ceased DE102013109604A1 (en) 2013-09-03 2013-09-03 Camera-based object recognition technology

Country Status (1)

Country Link
DE (1) DE102013109604A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015226465A1 (en) * 2015-12-22 2017-07-06 Conti Temic Microelectronic Gmbh METHOD FOR CHARACTER DETECTION, ENVIRONMENTAL IDENTIFICATION AND VEHICLE

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253214A (en) 2010-05-31 2011-12-15 Toyota Motor Corp Pedestrian detecting device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253214A (en) 2010-05-31 2011-12-15 Toyota Motor Corp Pedestrian detecting device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dalal, N., Triggs, B.: "Histograms of Oriented Gradients for Human Detection", IEEE Computer Vision and Pattern Recognition, Vol. 1, pp. 886-893, 2005
Harris, C., Stephens, M.: "A combined corner and edge detector", Proceedings oft he 4th Alvey Vision Conference, pp. 147-151, 1988

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015226465A1 (en) * 2015-12-22 2017-07-06 Conti Temic Microelectronic Gmbh METHOD FOR CHARACTER DETECTION, ENVIRONMENTAL IDENTIFICATION AND VEHICLE

Similar Documents

Publication Publication Date Title
DE10301469B4 (en) Infrared image processing device
DE102015121339B4 (en) SYSTEMS AND METHODS FOR DETERMINING A CONDITION OF A ROAD
EP2394234B1 (en) Method and device for determining an applicable lane marker
DE10030421B4 (en) Vehicle environment monitoring system
DE10247371B4 (en) Vehicle information providing device
DE102015205225A1 (en) Method and device for detecting a target object in the blind spot of a vehicle
DE102014209137A1 (en) Method and device for calibrating a camera system of a motor vehicle
DE102014117102B4 (en) Lane change warning system and method for controlling the lane change warning system
EP3552144A1 (en) Camera device and method for capturing a surrounding region of a vehicle in a situation-adapted manner
DE102005056645A1 (en) Vehicle surroundings monitoring apparatus, has height calculation device calculating height dimension of object based on dimension of obstacle, and object type determination device determining type of object based on dimension
EP3607740B1 (en) Camera device and method for detecting an area outside a vehicle
EP2028605A1 (en) Detection method for symmetric patterns
EP3291172A1 (en) Method for calculating final image data
DE112009003648B4 (en) Method and device for barrier separation
DE112012001606T5 (en) Image processing apparatus for a vehicle
DE102012000459A1 (en) Method for detecting object e.g. vehicle in surrounding area, involves transforming segments with classification surfaces into two-dimensional representation of environment, and searching and classifying segments in representation
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
EP3645343B1 (en) Camera device and method for the environment-based adaptive detection of the surroundings of a vehicle
DE102008036219A1 (en) Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set
DE102020125232A1 (en) Color correction method for a camera system and a camera system
DE102008059551A1 (en) Method for determining the change in position of a camera system and device for capturing and processing images
DE102013109604A1 (en) Camera-based object recognition technology
DE102014224903A1 (en) Optical environment sensor for vehicles
DE102014209863A1 (en) Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle
EP2696310B1 (en) Method for identifying the edge of a road

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R082 Change of representative

Representative=s name: ERNICKE PATENT- UND RECHTSANWAELTE PARTMBB, DE

Representative=s name: ERNICKE PATENT- UND RECHTSANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final