DE102018123393A1 - Detection of parking areas - Google Patents

Detection of parking areas Download PDF

Info

Publication number
DE102018123393A1
DE102018123393A1 DE102018123393.0A DE102018123393A DE102018123393A1 DE 102018123393 A1 DE102018123393 A1 DE 102018123393A1 DE 102018123393 A DE102018123393 A DE 102018123393A DE 102018123393 A1 DE102018123393 A1 DE 102018123393A1
Authority
DE
Germany
Prior art keywords
edge
point
points
accumulation
image recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018123393.0A
Other languages
German (de)
Inventor
Timo Féret
Pramod Chandrashekhariah
Matthias Sajjaa
Noel Trujillo
Matias Focken
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to DE102018123393.0A priority Critical patent/DE102018123393A1/en
Publication of DE102018123393A1 publication Critical patent/DE102018123393A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Offenbarung betrifft ein computerimplementiertes Objekterkennungsverfahren zur Erkennung mindestens einer Parkfläche in der Umgebung eines Fahrzeugs. Es werden Umgebungs-Bildaufnahmen bezogen, die eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs umfassen. In der Umgebungs-Bildaufnahme werden optisch wahrnehmbare Grenzstrukturen einer Parkflächenmarkierung erkannt. Auf Basis der erfassten Grenzstrukturen können Parkflächen identifiziert werden.The disclosure relates to a computer-implemented object recognition method for recognizing at least one parking area in the vicinity of a vehicle. Ambient image recordings are obtained which comprise an image representation of a surrounding area of the vehicle. Visually perceptible boundary structures of a parking area marking are recognized in the surrounding image recording. Parking areas can be identified on the basis of the boundary structures recorded.

Description

Die Erfindung betrifft eine Technik zur Erkennung von Parkflächen in der Umgebung eines Fahrzeugs.The invention relates to a technology for recognizing parking areas in the vicinity of a vehicle.

Stand der TechnikState of the art

Aus der Praxis sind Objekterkennungsverfahren bekannt, mit denen Objekte in der Umgebung eines Fahrzeugs maschinell erkannt werden können. Die Objekterkennung basiert auf der Verarbeitung von Daten mindestens eines Umgebungssensors. Bevorzugt werden hierfür Kamerasensoren eingesetzt, mit denen ein Bereich der Fahrzeugumgebung in Bildaufnahmen erfasst wird.Object recognition methods are known from practice, with which objects in the surroundings of a vehicle can be recognized mechanically. Object detection is based on the processing of data from at least one environmental sensor. For this purpose, camera sensors are preferably used, with which an area of the vehicle surroundings is captured in image recordings.

Es sind verschiedene computergestützte Verfahren bekannt, mit denen bestimmte Strukturen in einer Bildaufnahme, z.B. Straßenmarkierungen, Ampeln oder andere Fahrzeuge, erkannt werden können. Solche Verfahren stellen häufig hohe Ansprüche an die Rechenleistung der eingesetzten Computertechnik und/oder der eingesetzten Sensoren. Damit Objekterkennungsverfahren während des Betriebs eines Fahrzeugs eingesetzt werden können, müssen die Verfahren außerdem Echtzeitbedingungen erfüllen.Various computer-aided methods are known with which certain structures in an image recording, e.g. Road markings, traffic lights or other vehicles can be recognized. Such methods often place high demands on the computing power of the computer technology used and / or the sensors used. In order for object recognition methods to be used during the operation of a vehicle, the methods must also meet real-time conditions.

Aufgabetask

Aufgabe der Erfindung ist es, ein verbessertes Objekterkennungsverfahren zur Erkennung von Parkflächen aufzuzeigen. Die Erfindung löst die Aufgabe mit den Merkmalen der eigenständigen Ansprüche.The object of the invention is to demonstrate an improved object recognition method for recognizing parking areas. The invention solves the problem with the features of the independent claims.

ObjekterkennungsverfahrenObject recognition process

Gegenstand des Hauptanspruchs ist ein computerimplementiertes Objekterkennungsverfahren zur Erkennung mindestens einer Parkfläche in der Umgebung eines Fahrzeugs.The main claim relates to a computer-implemented object recognition method for recognizing at least one parking area in the vicinity of a vehicle.

Das Verfahren ist besonders geeignet für die Erkennung von Parkflächen für PKW, die quer zur Fahrtrichtung des Fahrzeugs ausgerichtet sind. Solche Parkflächen sind häufig in Gruppen angeordnet, insbesondere auf großen Parkplätzen z.B. vor Einkaufszentren. Das Verfahren kann auch für die Erkennung von Parkplätzen eingesetzt werden, die längs oder diagonal zur Fahrtrichtung des Fahrzeugs ausgerichtet sind.The method is particularly suitable for the detection of parking spaces for cars which are oriented transversely to the direction of travel of the vehicle. Such parking areas are often arranged in groups, especially in large parking lots e.g. in front of shopping centers. The method can also be used for the detection of parking spaces that are aligned lengthways or diagonally to the direction of travel of the vehicle.

Das Verfahren umfasst mehrere Schritte. Die Schritte können jeweils einzeln oder mehrfach ausgeführt werden. Außerdem können die Schritte in einer oder mehreren Phasen ausgeführt werden, die insbesondere in einer vorgegebenen Sequenz und/oder Taktung ausgeführt werden. Bevorzugt werden die Schritte des Objekterkennungsverfahrens nacheinander ausgeführt. Einzelne Schritte können zumindest teilweise parallel ausgeführt werden. Ein Schritt kann einen oder mehrere Unterschritte beinhalten. Die Verfahrensschritte können in einem oder mehreren (Software-)Modulen implementiert sein.The process consists of several steps. The steps can be carried out individually or several times. In addition, the steps can be carried out in one or more phases, which are carried out in particular in a predetermined sequence and / or timing. The steps of the object recognition method are preferably carried out in succession. Individual steps can be carried out at least partially in parallel. A step can contain one or more sub-steps. The method steps can be implemented in one or more (software) modules.

Ein Schritt des Verfahrens beinhaltet das Beziehen mindestens einer Umgebungs-Bildaufnahme, die eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs umfasst. Die Umgebungs-Bildaufnahme wird bevorzugt von einem Umgebungssensor bezogen, der am Fahrzeug angeordnet ist. Es kann auch eine Umgebungs-Bildaufnahme bezogen werden, die aus mehreren Bildaufnahmen, insbesondere Kamerabildern und/oder anderen in Bezug auf das Bildraster erfassten Daten, fusioniert ist.One step of the method includes acquiring at least one surrounding image recording, which comprises an image representation of a surrounding area of the vehicle. The environmental image recording is preferably obtained from an environmental sensor which is arranged on the vehicle. An environmental image recording can also be obtained, which is fused from a plurality of image recordings, in particular camera images and / or other data recorded in relation to the image raster.

Die Umgebungs-Bildaufnahme umfasst eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs. Die Bilddarstellung weist bevorzugt ein zweidimensionales Pixelraster auf, wobei jeder Pixel eine oder mehrere Bildinformationen umfasst. Eine Bildaufnahme weist ein Bildkoordinatensystem auf. Ein Pixel oder eine sonstige Bildinformation verfügt über eine bestimmbare Bildposition im Bildkoordinatensystem. Bevorzugt wird die Bildposition durch einen Reihen-Index und einen Spalten-Index eines Pixels bestimmt. Es können auch andere Bildkoordinaten verwendet werden.The surrounding image recording comprises an image representation of a surrounding area of the vehicle. The image display preferably has a two-dimensional pixel grid, each pixel comprising one or more image information. An image recording has an image coordinate system. A pixel or other image information has a definable image position in the image coordinate system. The image position is preferably determined by a row index and a column index of a pixel. Other image coordinates can also be used.

Eine Bildinformation kann insbesondere einen Grauwert, einen Farbwert, einen Helligkeitswert und/oder einen Kontrastwert umfassen. Alternativ oder zusätzlich kann eine Bildinformation auch eine Tiefeninformation, eine Disparität oder einen sonstigen Bildsignalwert umfassen. Bevorzugt werden Umgebungs-Bildaufnahmen einer MonoKamera, insbesondere mit einem Fish-Eye-Objektiv, verwendet. Alternativ oder zusätzlich können Bildaufnahmen einer oder mehrerer Stereo-Kameras oder eines Kamera-Verbundes verwendet werden. Die Bildaufnahmen können auch aus mehreren Bildaufnahmen zusammengesetzt oder anderweitig vorverarbeitet sein.Image information can in particular comprise a gray value, a color value, a brightness value and / or a contrast value. Alternatively or additionally, image information can also include depth information, a disparity or some other image signal value. Ambient image recordings of a mono camera, in particular with a fish-eye lens, are preferably used. Alternatively or additionally, image recordings of one or more stereo cameras or of a camera network can be used. The image recordings can also be composed of several image recordings or otherwise preprocessed.

Der in der Bildaufnahme erfasste Umgebungsbereich des Fahrzeugs liegt bevorzugt seitlich neben dem Fahrzeug (in Bezug auf die Fahrtrichtung). Alternativ oder zusätzlich kann der erfasste Umgebungsbereich auch Bereiche in Fahrtrichtung vor und/oder hinter dem Fahrzeug umfassen.The surrounding area of the vehicle captured in the image recording is preferably located to the side of the vehicle (in relation to the direction of travel). Alternatively or additionally, the detected surrounding area can also include areas in the direction of travel in front of and / or behind the vehicle.

Ein weiterer Schritt des Objekterkennungsverfahrens beinhaltet das Erfassen mindestens einer optisch wahrnehmbaren linearen Grenzstruktur einer Parkflächenmarkierung in der Umgebungs-Bildaufnahme.A further step of the object detection method includes the detection of at least one optically perceptible linear boundary structure of a parking area marking in the surrounding image recording.

Eine Parkfläche im Sinne dieser Offenbarung ist dazu geeignet und dazu vorgesehen, ein Fahrzeug, insbesondere einen PKW, darauf zu parken. Eine solche Parkfläche liegt im Wesentlichen in einer Fahrebene, auf der sich das Fahrzeug bewegen kann. Eine Parkfläche wird in der Regel von mindestens zwei Parkflächenmarkierungen begrenzt.A parking area in the sense of this disclosure is suitable and provided for one Parking the vehicle, especially a car, on it. Such a parking area is essentially in a driving level on which the vehicle can move. A parking area is usually limited by at least two parking area markings.

Parkflächenmarkierungen werden häufig mit einem Farbmittel auf die Fahrebene aufgebracht, sodass sich die Parkflächenmarkierung optisch, insbesondere durch eine andere Farbe und/oder Helligkeit, vom Untergrund der Fahrebene abhebt. Die Randbereiche der Parkflächenmarkierungen weisen eine optisch wahrnehmbare lineare Grenzstruktur in der Umgebungs-Bildaufnahme auf.Parking area markings are often applied to the driving level with a colorant, so that the parking area marking stands out visually, in particular due to a different color and / or brightness, from the background of the driving level. The edge areas of the parking area markings have an optically perceptible linear boundary structure in the surrounding image recording.

Optisch wahrnehmbaren linearen Grenzstrukturen können mit verschiedenen Verfahren erfasst werden. Bevorzugt werden optisch wahrnehmbare Grenzstrukturen in Form von Kanten in einer Umgebungs-Bildaufnahme erfasst. Kanten können durch Auswertung von Gradienten einer oder mehrerer Bildinformationen erfasst werden. Ein Gradient kann insbesondere durch einen Vergleich benachbarter Bildinformationen in einer Bildaufnahme berechnet werden.Visually perceptible linear boundary structures can be recorded using various methods. Optically perceptible boundary structures in the form of edges are preferably recorded in a surrounding image recording. Edges can be captured by evaluating gradients of one or more image information. A gradient can be calculated in particular by comparing neighboring image information in an image recording.

Ein weiterer Schritt des Objekterkennungsverfahrens beinhaltet das Identifizieren mindestens einer Parkfläche auf Basis der mindestens einen erfassten Grenzstruktur. Für eine identifizierte Parkfläche wird ein Parkflächen-Objekt erzeugt. Ein Parkflächen-Objekt kann durch eine elektronisch speicherbare Datenstruktur erzeugt werden.Another step of the object recognition method includes identifying at least one parking area based on the at least one detected boundary structure. A parking area object is generated for an identified parking area. A parking space object can be generated by an electronically storable data structure.

Bevorzugt wird eine identifizierte Parkfläche durch ein Parkflächen-Objekt in einer strukturierten Datenbank zur Verfügung gestellt. Ein Parkflächen-Objekt ist ein virtuelles Modell einer erkannten Parkfläche in der Umgebung des Fahrzeugs. Die Datenstruktur umfasst erfasste Eigenschaften einer identifizierten Parkfläche, insbesondere die Position und/oder Ausrichtung und/oder Breite der Parkfläche. Eine weitere Eigenschaft eines Parkflächen-Objekts kann die Lage innerhalb einer Parkflächen-Gruppe sein. Zusätzlich können Informationen zur Zuverlässigkeit der Erkennung zu einem Parkflächen-Objekt gespeichert sein.An identified parking area is preferably made available by a parking area object in a structured database. A parking area object is a virtual model of a recognized parking area in the vicinity of the vehicle. The data structure includes recorded properties of an identified parking area, in particular the position and / or orientation and / or width of the parking area. Another property of a parking area object can be the location within a parking area group. In addition, information about the reliability of the detection of a parking space object can be stored.

Das Objekterkennungsverfahren umfasst mehrere eigenständige Aspekte. Jeder der Aspekte basiert auf einem eigenständigen Erfindungsgedanken. Die Aspekte können als Teilverfahren des Objekterkennungsverfahrens einzeln oder in Kombination eingesetzt werden. Ein Schritt eines Teilverfahrens kann einem Schritt des Objekterkennungsverfahrens neben- oder untergeordnet werden. In einer bevorzugten Ausführungsform bauen die Teilverfahren aufeinander auf. Insbesondere werden die Teilverfahren in einer vorgegebenen Reihenfolge ausgeführt.The object recognition process comprises several independent aspects. Each of the aspects is based on an independent inventive idea. The aspects can be used individually or in combination as part of the object recognition process. A step of a sub-process can be subordinate or subordinate to a step of the object recognition process. In a preferred embodiment, the partial methods build on one another. In particular, the sub-processes are carried out in a predetermined order.

BildvorverarbeitungsverfahrenImage preprocessing process

Ein eigenständiger Aspekt dieser Offenbarung ist ein Bildvorverarbeitungsverfahren. Das Bildvorverarbeitungsverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 2. In diesem Teilverfahren wird ein Verarbeitungsausschnitt in einer Umgebungs-Bildaufnahme bestimmt.An independent aspect of this disclosure is an image preprocessing process. The image preprocessing method comprises the characterizing features of claim 2. In this partial method, a processing section is determined in an environmental image recording.

Ein Verarbeitungsausschnitt umfasst ein oder mehrere Abtastsegmente umfasst. Das Erfassen der mindestens einen optisch wahrnehmbaren Grenzstruktur erfolgt innerhalb des Verarbeitungsausschnitts. Der Verarbeitungsausschnitt kann insbesondere für mehrere Bildaufnahmen jeweils erneut bestimmt werden. Der Verarbeitungsausschnitt ist dynamisch, d.h. der Verarbeitungsausschnitt einer ersten Bildaufnahme kann sich von Verarbeitungsausschnitt einer später aufgenommenen zweiten Bildaufnahme unterscheiden.A processing section comprises one or more scan segments. The at least one optically perceptible boundary structure is detected within the processing section. The processing section can be redetermined in particular for several image recordings. The processing section is dynamic, i.e. the processing section of a first image recording can differ from the processing section of a second image recording taken later.

Ein Verarbeitungsausschnitt definiert einen Bereich einer Umgebungs-Bildaufnahme. Dieser Bereich kann aus einem oder mehreren Teilen bestehen. Bevorzugt umfasst ein Verarbeitungsausschnitt eine wesentlich kleinere Menge an Bildinformationen als die gesamte Umgebungs-Bildaufnahme. A processing section defines an area of an environmental image. This area can consist of one or more parts. A processing section preferably comprises a substantially smaller amount of image information than the entire surrounding image recording.

Die Bestimmung des Verarbeitungsausschnitts hat den Vorteil, dass die zu verarbeitende Datenmenge für weitere Verarbeitungsschritte reduziert wird. Die Bestimmung des Verarbeitungsausschnitts erfordert insbesondere einen geringeren Rechenaufwand als die Weiterverarbeitung der vom Verarbeitungsausschnitt ausgeschlossenen Bildinformationen.Determining the processing section has the advantage that the amount of data to be processed is reduced for further processing steps. The determination of the processing section in particular requires less computing effort than the further processing of the image information excluded from the processing section.

Eine Verarbeitung von Bildinformationen kann auf den Verarbeitungsausschnitt beschränkt werden. Ein Verarbeitungsausschnitt wird bevorzugt um Bereiche einer Umgebungs-Bildaufnahme gebildet, in denen optisch wahrnehmbare lineare Grenzstrukturen liegen. In diesen Bereichen sind mit erhöhter Wahrscheinlichkeit Parkflächenmarkierungen abgebildet. Andere Bereiche sollen nach Möglichkeit nicht Teil des Verarbeitungsausschnitts sein. Die zu verarbeitende Datenmenge soll möglichst klein sein. Das Erfassen der mindestens einen optisch wahrnehmbaren Grenzstruktur erfolgt bevorzugt oder ausschließlich innerhalb des Verarbeitungsausschnitts.Processing of image information can be limited to the processing section. A processing section is preferably formed around areas of a surrounding image recording in which there are optically perceptible linear boundary structures. Parking space markings are more likely to be shown in these areas. If possible, other areas should not be part of the processing section. The amount of data to be processed should be as small as possible. The at least one optically perceptible boundary structure is detected preferably or exclusively within the processing section.

Das Bestimmen des Verarbeitungsausschnitts umfasst die folgenden Schritte, die ein oder mehrfach ausgeführt werden können.Determining the processing section comprises the following steps, which can be carried out one or more times.

Ein Schritt beinhaltet das Definieren von Abtastsegmenten. Ein Abtastsegment umfasst einen Teilbereich einer Umgebungs-Bildaufnahme. Ein Abtastsegment kann insbesondere durch Form und/oder Größe bestimmt sein. Bevorzugt werden rechteckige Abtastsegmente mit vorbestimmter Kantenlänge in Pixeln definiert.One step involves defining scan segments. A scanning segment comprises a partial area of an environmental image recording. A scan segment can be determined in particular by shape and / or size. To be favoured rectangular scan segments with a predetermined edge length defined in pixels.

Aus einer Auswahl bestimmter Abtastsegmente kann der Verarbeitungsausschnitt gebildet werden. Die Abtastsegmente dienen der lokalen Verarbeitung von Bildinformationen zu Ermittlung deren wahrscheinlichen Relevanz für die Erkennung von Parkflächen. Ein Abtastsegment kann gedanklich wie ein Fenster in der Bildaufnahme verschoben werden. Abtastsegmente können einzeln erzeugt werden und/oder an eine definierte Position verschoben werden. Ein Abtastsegment kann auch durch eine bestimmte Auswahl an Bildinformationen definiert werden.The processing section can be formed from a selection of certain scanning segments. The scan segments are used for the local processing of image information to determine its probable relevance for the detection of parking areas. A scanning segment can be moved in the image like a window in the image acquisition. Scan segments can be generated individually and / or moved to a defined position. A scan segment can also be defined by a certain selection of image information.

Ein Abtastsegment kann beispielsweise einen Teilbereich von 20 ×20 oder 100 ×100 Pixeln umfassen. Die einzelnen Abtastsegmente sind bevorzugt regelmäßig über die Umgebungs-Bildaufnahme oder einen vorgegebenen Ausschnitt der Umgebungs-Bildaufnahme verteilt.For example, a scan segment can comprise a partial area of 20 × 20 or 100 × 100 pixels. The individual scanning segments are preferably regularly distributed over the surrounding image recording or a predetermined section of the surrounding image recording.

In einer bevorzugten Ausführungsform überlappen sich benachbarte Abtastsegmente. Insbesondere können Abtastsegmente in regelmäßigen Abständen in Horizontal- und Vertikalrichtung der Umgebungs-Bildaufnahme verteilt werden. In Vertikalrichtung können die Abtastsegmente direkt aneinander angrenzen. In Horizontalrichtung können sich die Abtastsegmente überlappen. Alternativ können die Abtastsegmente auch in beiden Richtungen aneinander angrenzen oder sich überlappen. Auch ein Angrenzen oder Überlappen in der jeweils anderen Richtung ist möglich. In a preferred embodiment, adjacent scan segments overlap. In particular, scanning segments can be distributed at regular intervals in the horizontal and vertical directions of the surrounding image recording. The scanning segments can directly adjoin one another in the vertical direction. The scan segments can overlap in the horizontal direction. Alternatively, the scanning segments can also adjoin one another in both directions or overlap. Adjacent or overlapping in the other direction is also possible.

Ein weiterer Schritt beinhaltet das Anwenden eines Kantenfilters auf die Umgebungs-Bildaufnahme oder ein Abtastsegment zur Ermittlung von Kanten-Merkmalen.Another step involves applying an edge filter to the surrounding image acquisition or a scanning segment to determine edge features.

Mit einem Kantenfilter werden optisch wahrnehmbare Grenzstrukturen in einer Bildaufnahme hervorgehoben. Als Kantenfilter kann beispielsweise ein Sobel-Filter oder ein anderer dem Fachmann bekannter Kantenfilter eingesetzt werden.With an edge filter, optically perceptible boundary structures are highlighted in an image. For example, a Sobel filter or another edge filter known to the person skilled in the art can be used as the edge filter.

Ein Kantenfilter kann insbesondere auf eine Gruppe von Pixeln innerhalb eines oder mehrerer Abtastsegmente angewendet werden. Die bei der Anwendung des Filters erzeugten Kanteninformationen können in einer geordneten Datenstruktur abgespeichert werden, insbesondere einem Pixelraster. Eine so erzeugte Kanteninformation ist einem bestimmten Pixel oder einer bestimmten Gruppe von Pixeln der Umgebungs-Bildaufnahme zuordenbar. Bevorzugt werden die Kanteninformationen als zusätzliche Bildinformationen in demselben oder einem zusätzlichen Pixelraster abgespeichert. Die Kanteninformationen können insbesondere in Form eines oder mehrerer Gradientenbilder für eine Umgebungs-Bildaufnahme vorliegen.An edge filter can be applied in particular to a group of pixels within one or more scan segments. The edge information generated when the filter is used can be stored in an ordered data structure, in particular in a pixel grid. Edge information generated in this way can be assigned to a specific pixel or a specific group of pixels of the surrounding image recording. The edge information is preferably stored as additional image information in the same or an additional pixel grid. The edge information can be present in particular in the form of one or more gradient images for an environmental image recording.

Zur Ermittlung von Kanten-Merkmalen werden die mittels eines Kantenfilters erzeugten Kanteninformationen ausgewertet. Ein Kanten-Merkmal kann beispielsweise ein Gradientwert oberhalb eines bestimmten Schwellenwertes sein. Dem Fachmann sind zur Bestimmung von Kantenmerkmalen verschiedene Techniken bekannt. Kanten-Merkmale können insbesondere einem bestimmten Pixel in einer Umgebungs-Bildaufnahme zugeordnet sein. Ein Pixel weist wiederum eine durch das Pixelraster bekannte Bildposition auf.To determine edge characteristics, the edge information generated using an edge filter is evaluated. An edge feature can be, for example, a gradient value above a certain threshold. Various techniques are known to those skilled in the art for determining edge features. Edge features can in particular be assigned to a specific pixel in a surrounding image recording. A pixel in turn has an image position known from the pixel grid.

Ein weiterer Schritt umfasst das richtungsbezogene Zählen von Kanten-Merkmalen in Bezug auf mindestens eine vorbestimmte Richtung in einem Abtastsegment.Another step includes the directional counting of edge features with respect to at least one predetermined direction in a scan segment.

Dieser Schritt wird bevorzugt für jedes Abtastsegment durchgeführt. Beim richtungsbezogenen Zählen werden Kanten-Merkmale entlang einer vorbestimmten Richtung gezählt. Eine Richtung weist einen vorbestimmten Winkel im Bildkoordinatensystem der Umgebungs-Bildaufnahme auf.This step is preferably carried out for each scan segment. In directional counting, edge features are counted along a predetermined direction. One direction has a predetermined angle in the image coordinate system of the surrounding image recording.

Die Zählung kann innerhalb eines Zählkorridors mit einer vorbestimmten Breite in Pixeln durchgeführt werden. Außerdem kann die Zählung in mehreren solcher Zählkorridore durchgeführt werden, die parallel zueinander versetzt sind.The counting can be carried out within a counting corridor with a predetermined width in pixels. In addition, the count can be carried out in a number of such counting corridors which are offset parallel to one another.

Es können beispielsweise in einem Abtastsegment jeweils 5 parallele Zählkorridore zu mehreren Vorgegeben Richtungen bzw. Winkeln im Bildkoordinatensystem bestimmt werden.For example, 5 parallel counting corridors for several predetermined directions or angles can be determined in the image coordinate system in a scanning segment.

Das richtungsbezogene Zählen von Kanten-Merkmalen ist eine besonders effiziente Weise lineare Grenzstrukturen zu erkennen.Directional counting of edge features is a particularly efficient way of recognizing linear boundary structures.

Bevorzugt wird das Ergebnis einer Zählung in einer richtungsbezogenen Summe abgespeichert. Wenn in einer Umgebungs-Bildaufnahme in einem bestimmten Teilbereich Parkflächenmarkierungen abgebildet sind, werden mit hoher Wahrscheinlichkeit in diesem Bereich viele Kanten-Merkmale in einer bestimmten Richtung hintereinander liegen. Beim richtungsbezogenen Zählen werden in einer richtungsbezogenen Summe nur Kanten-Merkmale auf einer im Wesentlichen linearen Struktur erfasst. Kanten-Merkmale auf einer gekrümmten Struktur hingegen verteilen sich auf mehrere richtungsbezogene Summen. Einzelne hohe richtungsbezogene Summen sprechen daher für eine im Wesentlichen lineare Grenzstruktur in diesem Abtastsegment. Diese Methode kann besonders recheneffizient durchgeführt werden und ist daher besonders für Echtzeitanwendungen geeignet.The result of a count is preferably stored in a direction-related sum. If parking area markings are imaged in a certain partial area in a surrounding image recording, it is very likely that many edge features will lie one behind the other in this area in this area. In direction-related counting, only edge features on an essentially linear structure are recorded in a direction-related sum. Edge features on a curved structure, however, are distributed over several direction-related sums. Individual high direction-related sums therefore speak for an essentially linear boundary structure in this scanning segment. This method can be carried out particularly computationally and is therefore particularly suitable for real-time applications.

Ein weiterer Schritt beinhaltet das Aufnehmen eines Abtastsegments in den Verarbeitungsausschnitt, wenn eine richtungsbezogene Summe der Kanten-Merkmale in diesem Abtastsegment einen Verarbeitungsrelevanz-Schwellenwert überschreitet. Another step includes including a scan segment in the processing section when a directional sum of the edge features in that scan segment exceeds a processing relevance threshold.

Der Verarbeitungsausschnitt wird bevorzugt aus Abtastsegmenten gebildet, in denen eine richtungsbezogene Zählung eine richtungsbezogene Summe oberhalb des Verarbeitungsrelevanz-Schwellenwerts ergibt. Alternativ oder zusätzlich können auch andere Aufnahmekriterien über die Aufnahme eines Abtastsegments in den Verarbeitungsausschnitt entscheiden. Beispielsweise können zusätzlich benachbarte Abtastsegmente zu bereits aufgenommenen Abtastsegmenten in den Verarbeitungsausschnitt aufgenommen werden.The processing section is preferably formed from scanning segments in which a direction-related count yields a direction-related sum above the processing relevance threshold. Alternatively or additionally, other recording criteria can also decide on the inclusion of a scanning segment in the processing section. For example, adjacent scan segments in addition to previously recorded scan segments can be included in the processing section.

MerkmalsextraktionsverfahrenFeature extraction process

Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Merkmalsextraktionsverfahren. Dieses Merkmalsextraktionsverfahren kann als Teilverfahren des Objekterkennungsverfahrens eingesetzt werden. Das Merkmalsextraktionsverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 3.Another standalone aspect of this disclosure is a feature extraction process. This feature extraction method can be used as a sub-method of the object recognition method. The feature extraction method comprises the characterizing features of claim 3.

Das Merkmalsextraktionsverfahren dient der Ermittlung charakteristischer Merkmale einer Umgebungs-Bildaufnahme, die mit erhöhter Wahrscheinlichkeit auf oder an einer Abbildung eines Markierungsstreifens liegen. Ein Merkmal ist eine charakteristische Bildinformation oder eine Kombination charakteristischer Bildinformationen. Ein Merkmal ist einem oder einer Gruppe von Pixeln zuordenbar. Ein Merkmal weist direkt oder indirekt über einen zuordenbaren Pixel eine Position im Bildkoordinatensystem auf.The feature extraction method is used to determine characteristic features of a surrounding image that are more likely to lie on or on an image of a marking strip. A feature is characteristic image information or a combination of characteristic image information. A feature can be assigned to one or a group of pixels. A feature has a position in the image coordinate system directly or indirectly via an assignable pixel.

Ein Merkmal stellt in der Regel ein für die weitere Bildverarbeitung, insbesondere die Objekterkennung, interessantes Bildelement dar. Zu erkennende Objekte weisen in der Regel charakteristische Merkmale in einer Bilddarstellung auf, die maschinell (wieder-)erkennbar sind. Mit einem Merkmalsextraktionsverfahren sollen solche charakteristischen Merkmale ermittelt werden. Um ein Merkmal automatisiert zu ermitteln, können Bildinformationen maschinell ausgewertet werden. Für die Erkennung von Markierungsstreifen ist die Ermittlung von Kanten-Merkmalen besonders vorteilhaft.A feature generally represents an image element that is interesting for further image processing, in particular object recognition. Objects to be recognized generally have characteristic features in an image display that are (machine) recognizable by machine. Such characteristic features are to be determined using a feature extraction method. In order to automatically determine a feature, image information can be evaluated automatically. The determination of edge features is particularly advantageous for the detection of marking strips.

Gegenstand des Merkmalsextraktionsverfahrens ist das Auffinden eines oder bevorzugt einer Mehrzahl von Kanten-Merkmal-Paaren. Ein Kanten-Merkmal, für das ein Kanten-Merkmal-Paar auffindbar ist, liegt mit erhöhter Wahrscheinlichkeit auf einem Markierungsstreifen einer Parkfläche. Es ist daher vorteilhaft, gezielt nach Kanten-Merkmal-Paaren zu suchen.The object of the feature extraction method is to find one or preferably a plurality of edge-feature pairs. An edge feature for which an edge feature pair can be found is more likely to lie on a marking strip of a parking area. It is therefore advantageous to search specifically for edge-feature pairs.

Ein Schritt des Verfahrens beinhaltet das Ermitteln oder Beziehen von Kanten-Merkmalen in einer Umgebungs-Bildaufnahme. Kanten-Merkmale können durch Anwendung eines oder mehrerer Kantenfilter ermittelt werden. Alternativ oder zusätzlich können Kanten-Merkmale von einem anderen Modul oder einer sonstigen Quelle bezogen werden.One step of the method involves determining or relating edge features in an environmental image recording. Edge characteristics can be determined using one or more edge filters. Alternatively or additionally, edge features can be obtained from another module or another source.

Besonders charakteristisch für einen Markierungsstreifen sind die Übergänge zwischen einem in der Regel dunklen oder grauen Untergrund und einem weißen (oder andersfarbigen) Markierungsstreifen. Bildaufnahmen solcher Übergänge weisen in der Regel eine Kante zwischen zwei Flächen im Bild auf. Eine an einer Kante angrenzende Fläche weist in der Regel eine im Wesentlichen einheitliche Helligkeit oder Farbe auf. Eine Kante in einer Umgebungs-Bildaufnahme ist durch Kanten-Merkmale gekennzeichnet.The transitions between a generally dark or gray background and a white (or other colored) marking strip are particularly characteristic of a marking strip. Image recordings of such transitions usually have an edge between two surfaces in the image. A surface adjacent to an edge generally has an essentially uniform brightness or color. An edge in a surrounding image recording is characterized by edge features.

In einem weiteren Schritt wird ein Kanten-Merkmal als Bezugs-Kanten-Merkmal bestimmt. Für ein Bezugs-Kanten-Merkmal kann anschließend versucht werden, ein Kanten-Merkmal-Paar aufzufinden.In a further step, an edge feature is determined as the reference edge feature. For a reference edge feature, you can then try to find an edge feature pair.

Bei der Ermittlung von Kanten-Merkmalen werden a priori bekannte Eigenschaften eines Markierungsstreifens herangezogen. Ein üblicher Markierungsstreifen weist zwei gegenüberliegende Ränder auf. Kanten-Merkmale auf einem der Ränder unterscheiden sich von Kanten-Merkmalen auf dem gegenüberliegenden Rand des Markierungsstreifens. Es ist zu erwarten, dass an einer Seite des Streifens ein Übergang von hell nach dunkel vorliegt und auf der gegenüberliegenden Seite ein entgegengesetzter Übergang. Bei länderspezifischen Unterschieden von Straßenmarkierungen können auch andere charakteristische Übergänge vorliegen.Known properties of a marking strip are used a priori when determining edge features. A common marking strip has two opposite edges. Edge features on one of the edges differ from edge features on the opposite edge of the marking strip. It is expected that there will be a transition from light to dark on one side of the strip and an opposite transition on the opposite side. If there are country-specific differences in road markings, there may also be other characteristic transitions.

Außerdem weisen Markierungsstreifen eine übliche Breite innerhalb eines zu erwartenden Intervalls auf. Üblich sind Markierungsstreifen mit einer Breite von 5 bis 20 cm. In Abhängigkeit von der Aufnahmetechnik und dem Abstand des Markierungsstreifens zum eingesetzten Umgebungssensor weist auch die Darstellung eines Markierungsstreifens in einer Umgebungs-Bildaufnahme eine Breite innerhalb eines zu erwartenden Intervalls in Bildkoordinaten auf. Es ist daher zu erwarten, dass zu einem Kanten-Merkmal an einem Rand eines Markierungsstreifens ein zugehöriges Gegen-Kanten-Merkmal auf der gegenüberliegenden Seite des Markierungsstreifens existiert. Aus diesen beiden Kanten-Merkmalen kann ein Kanten-Merkmal-Paar gebildet werden.In addition, marking strips have a customary width within an expected interval. Marking strips with a width of 5 to 20 cm are common. Depending on the recording technique and the distance of the marking strip to the environmental sensor used, the representation of a marking strip in an environmental image recording also has a width within an expected interval in image coordinates. It is therefore to be expected that for an edge feature on an edge of a marking strip there is an associated counter-edge feature on the opposite side of the marking strip. An edge feature pair can be formed from these two edge features.

Zur Ermittlung von Kanten-Merkmal-Paaren ist es vorteilhaft, von jeweils einem Bezugs-Kanten-Merkmal aus einer Mehrzahl von bekannten Kanten-Merkmalen ausgehend ein zugehöriges Gegen-Kanten-Merkmal zu suchen. Das Bezugs-Kanten-Merkmal bildet den Ausgangspunkt für die Suche.In order to determine pairs of edge features, it is advantageous to proceed from one reference edge feature from a plurality of known edge features, with an associated counterpart. Edge feature to look for. The reference edge characteristic forms the starting point for the search.

Ausgehend von einem Bezugs-Kanten-Merkmal wird ein zweites Kanten-Merkmal als zugehöriges Gegen-Kanten-Merkmal aufgesucht. Das Aufsuchen geschieht entlang einer vorgegebenen Suchrichtung. Bevorzugt wird entlang der Horizontalrichtung oder einer Pixelzeile der Umgebungs-Bildaufnahme gesucht, wenn Markierungsstreifen einer quer zur Fahrtrichtung liegenden Parkfläche erkannt werden sollen. Alternativ oder zusätzlich können auch andere Suchrichtungen z.B. entlang der Vertikalen oder einer Diagonalen in der Umgebungs-Bildaufnahme nach einem Gegen-Kanten-Merkmal gesucht werden. Eine Umgebungs-Bildaufnahme weist eine erste und eine zweite Bildachse auf. Die erste Bildachse ist bevorzugt eine liegende Achse. Die zweite Bildachse ist bevorzugt eine aufrechte Bildachse.Starting from a reference edge feature, a second edge feature is sought as the associated counter-edge feature. The search takes place along a predetermined search direction. A search is preferably carried out along the horizontal direction or a pixel line of the surrounding image recording if marking strips of a parking area lying transverse to the direction of travel are to be recognized. Alternatively or additionally, other search directions e.g. along the vertical or a diagonal in the surrounding image acquisition for a counter-edge feature. A surrounding image recording has a first and a second image axis. The first image axis is preferably a lying axis. The second image axis is preferably an upright image axis.

Es ist besonders vorteilhaft, innerhalb eines vorgegebenen Abstands in der Umgebungs-Bildaufnahme nach einem Gegen-Kanten-Merkmal zu suchen. Der vorgegebene Abstand orientiert sich an der zu erwartenden Breite eines Markierungsstreifens. Außerdem können Abbildungsparameter der Aufnahmetechnik der Umgebungs-Bildaufnahme herangezogen werden. Beispielsweise kann ausgehend von einem Bezugs-Kanten-Merkmal innerhalb eines Abstands von 15 oder 50 Pixeln nach einem Gegen-Kanten-Merkmal gesucht werden.It is particularly advantageous to search for a counter-edge feature in the surrounding image recording within a predetermined distance. The specified distance is based on the expected width of a marking strip. In addition, imaging parameters of the recording technique of the surrounding image recording can be used. For example, a reference edge feature can be searched for within a distance of 15 or 50 pixels for a counter edge feature.

Vorteilhafterweise wird das Aufsuchen in nur einer Suchrichtung, insbesondere nach links oder rechts laufend, in der Umgebungs-Bildaufnahme durchgeführt. The search is advantageously carried out in only one search direction, in particular running to the left or right, in the surrounding image recording.

Wenn ein Gegen-Kanten-Merkmal für ein Bezugs-Kanten-Merkmal auffindbar ist, wird dieses Gegen-Kanten-Merkmal zum Bezugs-Kanten-Merkmal unter Bildung eines Kanten-Merkmal-Paares zugewiesen. Die Bildung eines Paares kann durch Vorsehen eines Verweises von einem Merkmal zum anderen Merkmal geschehen. Alternativ oder zusätzlich kann eine zusätzliche Datenstruktur für ein Kanten-Merkmal-Paar geschaffen werden. Es ist besonders vorteilhaft, bei der Weiterverarbeitung bevorzugt oder ausschließlich Kanten-Merkmale zu berücksichtigen, für die ein Gegen-Kanten-Merkmal auffindbar ist. Kanten-Merkmale oder Kanten-Merkmal-Paare können für die Weiterverarbeitung freigegeben werden. Alternativ oder zusätzlich können Kanten-Merkmale, für die kein Kanten-Merkmal-Paar auffindbar ist, gelöscht, von einer Weiterverarbeitung ausgeschlossen oder nachrangig behandelt werden.If a counter-edge feature can be found for a reference-edge feature, this counter-edge feature is assigned to the reference-edge feature to form a pair of edge features. Pairing can be done by providing a reference from one feature to another feature. Alternatively or additionally, an additional data structure can be created for an edge feature pair. It is particularly advantageous to preferentially or exclusively consider edge features for which a counter-edge feature can be found during further processing. Edge characteristics or edge-characteristic pairs can be released for further processing. Alternatively or additionally, edge features for which no pair of edge features can be found can be deleted, excluded from further processing, or treated subordinately.

FilterverfahrenFiltering method

Ein weiterer wesentlicher Aspekt dieser Offenbarung ist ein Filterverfahren. Das Filterverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 4.Another essential aspect of this disclosure is a filtering method. The filtering method comprises the characterizing features of claim 4.

Das Filterverfahren beinhaltet das Auffinden von Kanten-Punkten, die in der Fahrebene des Fahrzeugs liegen. Mittels dieses Verfahrens können Kanten-Merkmale in einer Umgebungs-Bildaufnahme, die zu einer Abbildung eines Markierungsstreifens auf Bodenhöhe gehören, von anderen Kanten-Merkmalen unterschieden werden, die nicht auf Bodenhöhe liegen. Es können beispielsweise Kanten-Merkmale an einem Fahrzeug oder einem Straßenschild in Im Höhe über dem Boden von Kanten-Merkmalen an einer Parkfläche unterschieden werden.The filtering method involves finding edge points that lie in the driving plane of the vehicle. Using this method, edge features in an environmental image recording that belong to an image of a marking strip at floor level can be distinguished from other edge features that are not at floor level. For example, edge features on a vehicle or a road sign in height above the ground can be distinguished from edge features on a parking area.

Dieses Filterverfahren kann vorteilhafterweise in Kombination mit dem vorgenannten Merkmalsextraktionsverfahren eingesetzt werden. Es kann beispielsweise vorkommen, dass Kanten-Merkmale an einem weißen Streifen auf der Karosserie eines parkenden Fahrzeuges bei einer Merkmalsextraktion erfasst werden, die maschinell nur schwer von Kanten-Merkmalen an einem Markierungsstreifen einer Parkfläche unterscheidbar sind. Ein geeignetes Unterscheidungskriterium ist die Höhe eines Punktes der Umgebung des Fahrzeugs in Bezug auf die Fahrebene.This filtering method can advantageously be used in combination with the aforementioned feature extraction method. For example, it can happen that edge features on a white stripe on the body of a parked vehicle are detected during a feature extraction that are difficult to distinguish mechanically from edge features on a marking stripe of a parking area. A suitable distinguishing criterion is the height of a point in the vicinity of the vehicle in relation to the driving level.

In einer zweidimensionalen Umgebungs-Bildaufnahme liegen nur reduzierte Informationen der dreidimensionalen Umgebung vor. Es erfordert besondere technische Maßnahmen, um aus einer zweidimensionalen Umgebungs-Bildaufnahme die Position eines Umgebungspunktes in der Umgebung zu ermitteln. Hierfür sind verschiedene Verfahren bekannt, die häufig hohe Anforderungen an die eingesetzte Sensorik (z.B. Stereo-Kameras) stellen. Der besondere Vorteil des hier offenbarten Verfahrens liegt in der sehr recheneffizienten Ausführung und hohen Kompatibilität mit verschiedenen Umgebungssensoren.In a two-dimensional environment image recording, only reduced information of the three-dimensional environment is available. It requires special technical measures to determine the position of a surrounding point in the surroundings from a two-dimensional picture of the surroundings. Various methods are known for this, which often place high demands on the sensors used (e.g. stereo cameras). The particular advantage of the method disclosed here lies in the very computationally efficient design and high compatibility with various environmental sensors.

Ein Ziel des Verfahrens ist es, Kanten-Punkte zu ermitteln, die mit hoher Wahrscheinlichkeit auf Bodenhöhe in der Fahrebene des Fahrzeugs liegen. Für die Weiterverarbeitung werden bevorzugt Kanten-Punkte freigegeben, die in der Fahrebene des Fahrzeugs liegen. One aim of the method is to determine edge points that are highly likely to be at ground level in the driving plane of the vehicle. Edge points that lie in the driving plane of the vehicle are preferably released for further processing.

Ein Schritt des Verfahrens beinhaltet das Ermitteln von Kanten-Merkmalen mit zugehöriger Bild-Position in einer Umgebungs-Bildaufnahme. Alternativ oder zusätzlich können Kanten-Merkmale auch von einem anderen Modul oder einer sonstigen Quelle bezogen werden.One step of the method includes the determination of edge features with an associated image position in a surrounding image recording. Alternatively or additionally, edge features can also be obtained from another module or another source.

Für mind. ein Kanten-Merkmal wird ein zugehöriger Kanten-Punkt in einem Bewegungsraum-Koordinatensystem bestimmt.For at least one edge feature, an associated edge point is determined in a movement space coordinate system.

Ein Bewegungsraum-Koordinatensystem ist ein mind. zweidimensionales Koordinatensystem im Bewegungsraum des Fahrzeugs. Bevorzugt wird ein dreidimensionales Koordinatensystem verwendet, das in Bezug auf das Fahrzeug festgelegt ist und bei einer Bewegung des Fahrzeugs in seiner Umgebung mit dem Fahrzeug mitgeführt wird. Bevorzugt wird ein Fahrzeug-Koordinatensystem verwendet, das auf der Hinterachse des Fahrzeugs liegt. A movement space coordinate system is a at least two-dimensional coordinate system in the movement space of the vehicle. A three-dimensional coordinate system is preferably used, which is fixed in relation to the vehicle and is carried along with the vehicle when the vehicle moves in its surroundings. A vehicle coordinate system that lies on the rear axle of the vehicle is preferably used.

Alternativ kann das gesamte Objekterkennungsverfahren auch mit einem Bewegungsraum-Koordinatensystem ausgeführt werden, das in Bezug auf die Umgebung des Fahrzeugs festgelegt ist („Welt-Koordinatensystem“). In diesem Fall bedarf es einer Lokalisierung des Fahrzeugs innerhalb dieses Welt-Koordinatensystems. Dem Fachmann sind verschiedene Verfahren zur Übertragung des offenbarten Verfahrens auf ein umgebungsfestes Welt-Koordinatensystem bekannt. Alle hier offenbarten Schritte können vom Fachmann analog mit einem umgebungsfesten Bewegungsraum-Koordinatensystem ausgeführt werden.Alternatively, the entire object detection method can also be carried out with a movement space coordinate system that is defined in relation to the surroundings of the vehicle (“world coordinate system”). In this case, the vehicle must be localized within this world coordinate system. Various methods for transferring the disclosed method to an environmentally stable world coordinate system are known to the person skilled in the art. All steps disclosed here can be carried out analogously by a person skilled in the art with an environment-fixed movement space coordinate system.

Die Bestimmung eines Kanten-Punktes zu einem Kanten-Merkmal in einer Umgebungs-Bildaufnahme geschieht unter der (mathematischen) Annahme, dass der Kanten-Punkt in einer vorgegebenen Fahrebene liegt. Dies ist besonders vorteilhaft für den Einsatz des Verfahrens mit Bildaufnahmen einer Monokamera. Bildpunkte einer zweidimensionalen Umgebungs-Bildaufnahme können mittels bekannter Kameraparameter und der zusätzlichen Annahme einer Raumebene, auf der in der Umgebungs-Bildaufnahme abgebildete Punkt liegt, in ein dreidimensionales Bewegungsraum-Koordinatensystem transformiert werden.The determination of an edge point for an edge feature in an environmental image recording takes place on the (mathematical) assumption that the edge point lies in a predetermined driving plane. This is particularly advantageous for the use of the method with image recordings from a mono camera. Pixels of a two-dimensional environment image recording can be transformed into a three-dimensional movement space coordinate system using known camera parameters and the additional assumption of a spatial plane on which the point imaged in the environment image recording lies.

Wenn die Annahme der Fahrebene für einen in der Umgebungs-Bildaufnahme abgebildeten Punkt der Umgebung des Fahrzeugs zutrifft, kann durch diese Transformation die Position des abgebildeten Punktes im Bewegungsraum-Koordinatensystem bestimmt bzw. geschätzt werden. Wenn die Annahme nicht zutrifft, ist die bestimmte Position fehlerbehaftet. Während einer Bewegung des Fahrzeugs wird sich der Fehler bei der Bestimmung der Position durch die Veränderung der Kameraperspektive mit hoher Wahrscheinlichkeit verändern. Bei einer Betrachtung mehrerer zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen während einer Bewegung des Fahrzeugs kann dieser Effekt zur Unterscheidung von Kanten-Merkmalen auf Höhe der Fahrebene gegenüber Kanten-Merkmalen ober- oder unterhalb der Fahrebene genutzt werden.If the assumption of the driving plane applies to a point of the surroundings of the vehicle which is imaged in the surroundings image recording, the transformation of the position of the depicted point in the movement space coordinate system can be determined or estimated by this transformation. If the assumption is incorrect, the particular position is faulty. During a movement of the vehicle, the error in determining the position is very likely to change due to the change in the camera perspective. When looking at several temporally offset surrounding image recordings during a movement of the vehicle, this effect can be used to differentiate between edge features at the level of the driving level and edge features above or below the driving level.

Ein weiterer Schritt beinhaltet das akkumulieren von Kanten-Punkten im Bewegungsraum-Koordinatensystem während einer Bewegung des Fahrzeugs über mind. zwei nacheinander aufgenommene Umgebungs-Bildaufnahmen hinweg.A further step involves the accumulation of edge points in the movement space coordinate system during a movement of the vehicle over at least two successively recorded surroundings image recordings.

Beim Akkumulieren von Kanten-Punkten werden Informationen aus mehreren Umgebungs-Bildaufnahmen, die zu unterschiedlichen Zeitpunkten aufgenommen wurden, in einem gemeinsamen Bewegungsraum-Koordinatensystem gesammelt.When edge points are accumulated, information from several surrounding image recordings, which were recorded at different points in time, are collected in a common movement space coordinate system.

Während der Bewegung des Fahrzeugs verschiebt sich ein in der Umgebung räumlich festgelegter Markierungsstreifen in Bezug auf das Fahrzeug. Entsprechend verschiebt sich die Abbildung dieses Markierungsstreifens in zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen. Auch das Bewegungsraum-Koordinatensystem wird während der Bewegung des Fahrzeugs in Bezug auf die Umgebung verschoben.During the movement of the vehicle, a marking strip that is spatially defined in the surroundings shifts with respect to the vehicle. Correspondingly, the image of this marking strip shifts in surrounding image recordings taken at different times. The movement space coordinate system is also shifted with respect to the environment during the movement of the vehicle.

Zwischen zwei zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen werden Kanten-Punkte aus einer älteren Umgebungs-Bildaufnahme entsprechend der Eigenbewegung des Fahrzeugs zwischen den Aufnahmezeitpunkten im mitbewegten Bewegungsraum-Koordinatensystem verschoben. Der Einfluss der Eigenbewegung des Fahrzeugs auf die Position eines Kanten-Punkts im Bewegungsraum-Koordinatensystem wird somit kompensiert. Informationen zur Eigenbewegung des Fahrzeugs können aus einer externen Quelle, z.B. in einem Bus-Netzwerk des Fahrzeugs, bezogen werden. Alternativ oder zusätzlich können Bewegungsinformationen auch aus Umgebungs-Bildaufnahmen generiert werden.Edge points from an older surrounding image recording are shifted between two time-taken surroundings image recordings in accordance with the vehicle's own movement between the recording times in the moving space coordinate system moved along. The influence of the vehicle's own movement on the position of an edge point in the movement space coordinate system is thus compensated. Information about the vehicle's own movement can be obtained from an external source, e.g. in a bus network of the vehicle. Alternatively or additionally, motion information can also be generated from surrounding image recordings.

Um Bildinformationen, insbesondere Kanten-Punkte, aus mehreren zeitlich versetzt aufgenommenen Bildaufnahmen verwenden zu können, werden ältere Kanten-Punkte in ein jüngeres Bewegungsraum-Koordinatensystem transformiert. Eine solche Transformation entspricht einer Verschiebung der Kante-Punkte in einem mitgeführten Fahrzeug-Koordinatensystem.In order to be able to use image information, in particular edge points, from a plurality of image recordings taken at different times, older edge points are transformed into a younger movement space coordinate system. Such a transformation corresponds to a displacement of the edge points in a vehicle coordinate system carried along.

Wenn ein Nähe-Kriterium zwischen einem älteren Kanten-Punkt, der gemäß der Eigenbewegung des Fahrzeugs verschoben wurde, und einem jüngeren Kanten-Punkt erfüllt ist, werden diese beiden Punkte im Bewegungsraum-Koordinatensystem akkumuliert. Beim Akkumulieren wird festgestellt, wie häufig bereits Kanten-Punkte in der Nähe einer bestimmten Stelle der Umgebung erfasst wurden. Es werden somit Messinformationen aus mehreren Bildaufnahmen gesammelt.If a proximity criterion between an older edge point that has been shifted according to the vehicle's own movement and a younger edge point is met, these two points are accumulated in the movement space coordinate system. When accumulating, it is determined how often edge points have already been recorded in the vicinity of a specific point in the environment. Measurement information from several image recordings is thus collected.

Die Bestimmung eines Kanten-Punktes zu einem Kanten-Merkmal in einer Umgebungs-Bildaufnahme entspricht einer Messung bzw. Schätzung einer Umgebungsposition, die zu diesem Kanten-Merkmal zugehörig ist. Das Verschieben eines Kanten-Punktes im Bewegungsraum-Koordinatensystem entspricht einer modellbasierten Prädiktion der gemessenen bzw. geschätzten Position des Kanten-Punktes zu einem späteren Zeitpunkt.The determination of an edge point for an edge feature in a surrounding image recording corresponds to a measurement or estimation of a surrounding position which is associated with this edge feature. Moving one Edge point in the movement space coordinate system corresponds to a model-based prediction of the measured or estimated position of the edge point at a later point in time.

Es ist zu erwarten, dass ein einmal korrekt gemessener Punkt auch in einer darauffolgenden Bildaufnahme wieder gemessen wird - gegebenenfalls an einer gemäß der Eigenbewegung des Fahrzeugs verschobenen Stelle. Die verschobene Position eines Kanten-Punktes im Bewegungsraum-Koordinatensystem ist somit die erwartete Position einer erneuten Messung bzw. Schätzung desselben Umgebungspunktes in einer neuen Umgebungs-Bildaufnahme. It is to be expected that a correctly measured point will also be measured again in a subsequent image acquisition - if necessary at a point shifted according to the vehicle's own movement. The shifted position of an edge point in the movement space coordinate system is thus the expected position of a new measurement or estimation of the same environment point in a new environment image recording.

Wenn die Annahme einer Fahrebene für die Bestimmung eines Kanten-Punktes zutrifft, ist zu erwarten, dass über mehrere Bildaufnahmen hinweg Kanten-Punkte an den jeweils zu erwartenden Positionen im Bewegungsraum-Koordinatensystem im Wesentlichen mit neuen Messungen aufeinander fallen oder nahe zueinander gelegen sind. Ein häufiges Akkumulieren von Kanten-Punkten an einer bestimmten Stelle im Bewegungsraum-Koordinatensystem spricht daher dafür, dass an dieser Stelle eine lineare Grenzstruktur auf Höhe der Fahrebene liegt.If the assumption of a driving plane is correct for the determination of an edge point, it is to be expected that edge points at several positions in the movement space coordinate system to be expected will coincide with one another with new measurements or are close to one another over several image recordings. A frequent accumulation of edge points at a certain point in the movement space coordinate system therefore suggests that there is a linear boundary structure at the level of the driving plane at this point.

Im Falle einer unzutreffenden Annahme einer Fahrebene bei der Bestimmung eines Kanten-Punktes handelt es sich um eine fehlerbehaftete Messung bzw. Schätzung der Position eines Umgebungspunktes. In den meisten Fällen wird eine erneute fehlerbehaftete Messung bzw. Schätzung der Position in einer neuen Umgebungs-Bildaufnahme zu einem späteren Zeitpunkt nach einer Bewegung des Fahrzeugs nicht mit der erwarteten bzw. modellbasiert prädizierten Position aus vorangegangenen Messungen übereinstimmen. Kanten-Punkte zu Kanten-Merkmalen auf demselben Markierungsstreifen in mehreren aufeinander folgenden Umgebungs-Bildaufnahmen werden daher erwartungsgemäß nicht akkumulieren.In the event of an incorrect assumption of a driving plane when determining an edge point, the measurement or estimation of the position of a surrounding point is erroneous. In most cases, a new erroneous measurement or estimation of the position in a new surrounding image recording at a later point in time after a movement of the vehicle will not match the expected or model-based predicted position from previous measurements. Edge points to edge features on the same marking strip in several successive surrounding image recordings are therefore not expected to accumulate.

Ein weiterer Schritt beinhaltet das Identifizieren von Kanten-Punkten, die aufgrund der korrekt getroffenen Annahme bzgl. deren Lage auf der Fahrebene das Nähe-Kriterium zu älteren Kanten-Punkten erfüllen und mit diesen akkumuliert werden. Diese identifizierten Kanten-Punkte werden für die Weiterverarbeitung freigegeben. Alternativ oder zusätzlich können Repräsentanten dieser akkumulierten Kanten-Punkte freigegeben werden. Freigegebene Kanten-Punkte werden bei der Weiterverarbeitung bevorzugt oder ausschließlich berücksichtigt.A further step includes the identification of edge points which, on the basis of the correctly made assumption regarding their position on the driving level, fulfill the proximity criterion to older edge points and are accumulated with them. These identified edge points are released for further processing. Alternatively or additionally, representatives of these accumulated edge points can be released. Released edge points are preferred during further processing or only taken into account.

LinienerkennungsverfahrenLine recognition process

Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Linienerkennungsverfahren. Das Linienerkennungsverfahren dient der Erkennung von Linien-Objekten in einer Menge von Kanten-Punkten. Das Linienerkennungsverfahren kann als Teilverfahren des Objekterkennungsverfahrens ausgeführt werden. Das Linienerkennungsverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 8.Another standalone aspect of this disclosure is a line detection method. The line recognition method is used to recognize line objects in a set of edge points. The line recognition process can be carried out as a sub-process of the object recognition process. The line recognition method comprises the characterizing features of claim 8.

Das Verfahren beinhaltet das Erzeugen von Linien-Objekten in einem Bewegungsraum-Koordinatensystem auf Basis zuvor bestimmter Kanten-Punkte. Bevorzugt wird das Verfahren auf eine Menge von freigegebenen Kanten-Punkten angewendet. Das Erzeugen beinhaltet die folgenden Schritte.The method includes the creation of line objects in a movement space coordinate system based on previously determined edge points. The method is preferably applied to a set of released edge points. The creation includes the following steps.

Es werden zumindest zwei getrennte Punkte-Mengen bezogen, wobei die erste Punkte-Menge Kanten-Punkte eines ersten Typs und die zweite Punkte-Menge Kanten-Punkte eines zweiten Typs umfasst. Typischerweise unterscheiden sich Kanten-Merkmale auf zwei gegenüberliegenden Seiten eines Markierungsstreifens voneinander. Es ist vorteilhaft, Kanten-Punkt eines ersten Typs, die typischerweise auf einer bestimmten Seite eines Markierungsstreifens liegen, von Kanten-Punkten eines zweiten Typs zu trennen, die typischerweise auf einer anderen Seite eines Markierungsstreifens liegen. Die Kanten-Punkte können bevorzugt in getrennten Gruppen abgespeichert sein. Alternativ oder zusätzlich können die Datenstrukturen der Kanten-Punkte eine zusätzliche Information aufweisen, die auf einen bestimmten Typ des zugehörigen Kanten-Merkmals schließen lässt.At least two separate sets of points are obtained, the first set of points comprising edge points of a first type and the second set of points comprising edge points of a second type. Typically, edge features differ from one another on two opposite sides of a marking strip. It is advantageous to separate edge points of a first type, which are typically on a certain side of a marking strip, from edge points of a second type, which are typically on another side of a marking strip. The edge points can preferably be stored in separate groups. As an alternative or in addition, the data structures of the edge points can have additional information which suggests a certain type of the associated edge feature.

Ziel dieses Verfahrens ist es, geometrische Linien zu erkennen bzw. zugehörige Datenstrukturen zu erzeugen, die mit hoher Wahrscheinlichkeit auf der Kontur eines Markierungsstreifens liegt. Es ist daher zielführend, für die Ermittlung der Linien-Objekte nur Kanten-Punkte zu betrachten, die typischerweise auf einer bestimmten Seite eines Markierungsstreifens liegen.The aim of this method is to recognize geometric lines or to generate associated data structures that lie with high probability on the contour of a marking strip. It is therefore expedient to only consider edge points for the determination of the line objects that are typically on a specific side of a marking strip.

Bevorzugt trägt auch ein erzeugtes Linien-Objekt eine Information bzgl. des Typs der zugrundeliegenden Kanten-Punkte. Es ist vorteilhaft, auch die Linien-Objekte in getrennten Gruppen abzuspeichern, wobei eine Gruppe Linien-Objekte eines bestimmten Typs umfasst. Zum leichteren Verständnis können Kanten-Punkte oder Linien-Objekte des ersten Typs als „linke“ Elemente eines Markierungsstreifens und Kanten-Punkte oder Linien-Objekte des zweiten Typs als „rechte“ Elemente eines Markierungssteifens betrachtet werden.A generated line object preferably also carries information relating to the type of the underlying edge points. It is advantageous to also store the line objects in separate groups, a group comprising line objects of a certain type. For easier understanding, edge points or line objects of the first type can be regarded as “left” elements of a marking strip and edge points or line objects of the second type as “right” elements of a marking strip.

Eine Linie in einer Ebene lässt sich mathematisch durch zwei Parameter bestimmen. Es ist vorteilhaft, hierfür einen Winkel und einen Querabstand zu einem Bezugspunkt in einem Bezugs-Koordinatensystem zu verwenden. Alternativ können auch andere Parameterkombinationen analog angewendet werden. Dem Fachmann sind hier verschiedenste Parametrisierungen von Linien bekannt.A line in a plane can be mathematically determined using two parameters. For this purpose it is advantageous to use an angle and a transverse distance to a reference point in a reference coordinate system. Alternatively, other parameter combinations can also be used analogously become. Various parameterizations of lines are known to the person skilled in the art here.

Zur Identifikation von Linien in einer Umgebungs-Bildaufnahme können vordefinierte und diskret verteilte Parameter-Kombinationen mit erkannten Kanten-Punkten verglichen werden. Eine besonders effiziente Methode hierfür ist die hier offenbarte Zählung von Kanten-Punkten innerhalb vordefinierter Zählstreifen.Predefined and discretely distributed parameter combinations can be compared with recognized edge points in order to identify lines in a surrounding image recording. A particularly efficient method for this is the counting of edge points within predefined counting strips disclosed here.

Ein Schritt des Verfahrens beinhaltet das Definieren von Zählstreifen im Bewegungsraum-Koordinatensystem. Ein Zählstreifen weist einen vorbestimmten Richtungswinkel und einen vorbestimmten Querabstand im Bewegungsraum-Koordinatensystem auf. Der Richtungswinkel kann beispielsweise auf eine der Achsen des Koordinatensystems bezogen sein. Der Querabstand lässt sich über ein Lot von einem Bezugspunkt, z.B. dem Nullpunkt des Koordinatensystems, auf eine Linie mit dem vorgenannten Richtungswinkel definieren. Der Querabstand oder der Richtungswinkel kann auch in Bezug auf einen anderen Zählstreifen definiert sein.One step of the method involves defining counting strips in the movement space coordinate system. A counting strip has a predetermined direction angle and a predetermined transverse distance in the movement space coordinate system. The directional angle can be related to one of the axes of the coordinate system, for example. The transverse distance can be determined from a reference point, e.g. define the zero point of the coordinate system on a line with the aforementioned direction angle. The transverse distance or the direction angle can also be defined in relation to another counting strip.

Die Zählstreifen werden in diskreten Parameterschritten definiert. In Abhängigkeit der zur Verfügung stehenden Rechenleistung und/oder der erforderlichen Erkennungsgenauigkeit können verschiedene Parameterschritte und Wertebereiche vorteilhaft sein. Bevorzugt werden Zählstreifen in Schritten von 0,5 Grad in einem Wertebereich von -30 bis +30 Grad definiert. Für den Querabstand werden bevorzugt Schritte von 10 cm gewählt. Bevorzugt werden die Zählstreifen in einem Bereich von ca. 2m bis 20m um das Fahrzeug bestimmt.The counting strips are defined in discrete parameter steps. Depending on the available computing power and / or the required recognition accuracy, different parameter steps and value ranges can be advantageous. Counting strips are preferably defined in steps of 0.5 degrees in a range of values from -30 to +30 degrees. Steps of 10 cm are preferred for the transverse distance. The counting strips are preferably determined in a range of approximately 2 m to 20 m around the vehicle.

Die Breite eines Zählstreifens kann implizit durch die Staffelung der Querabstände gegeben sein. Die Breite eines Zählstreifens kann auch explizit festgelegt sein. Parallele Zählstreifen können direkt aneinander angrenzen oder sich überlappen. Es werden bevorzugt überlappende Zählstreifen eingesetzt.The width of a metering strip can be given implicitly by the staggering of the transverse distances. The width of a counting strip can also be explicitly specified. Parallel counting strips can directly adjoin one another or overlap. Overlapping counting strips are preferably used.

In einem weiteren Schritt werden die Kanten-Punkte innerhalb je einer Punkte-Menge gezählt, die innerhalb eines Zählstreifens im Bewegungsraum-Koordinatensystem liegen. Das Zählen wird jeweils für eine Punkte-Menge in Kombination mit einer Mehrzahl vordefinierter Zählstreifen ausgeführt. Beim Zählen wird für einen Zählstreifen eine Zählstreifen-Summe der darin liegenden Kanten-Punkte gebildet. Die Zählstreifen-Summen bilden eine Verteilung über verschiedene Richtungswinkel und Querabstände der zuvor definierten Zählstreifen.In a further step, the edge points are counted within a set of points that lie within a counting strip in the movement space coordinate system. The counting is carried out for a set of points in combination with a plurality of predefined counting strips. When counting, a counting strip sum of the edge points located therein is formed for a counting strip. The counting strip totals form a distribution over different angles and transverse distances of the previously defined counting strips.

Die Verteilung der Zählstreifen-Summen für die verschiedenen Zählstreifen mit jeweils einem Richtungswinkel und einem Querabstand lässt sich als eine mathematische Funktion mit den zwei diskret verteilten Parametern Richtungswinkel und Querabstand beschreiben. Diese Funktion bildet eine Parameterkombination von Richtungswinkel und Querabstand auf eine zugehörige Zählstreifen-Summe.The distribution of the meter strip totals for the various meter strips, each with a direction angle and a transverse distance, can be described as a mathematical function with the two discretely distributed parameters direction angle and transverse distance. This function forms a parameter combination of the direction angle and transverse distance on an associated counting strip sum.

In einem weiteren Schritt wird mind. ein Zählstreifen bestimmt, der ein lokales Zähl-Maximum innerhalb der Verteilung der Zählstreifen-Summen aufweist. Ein Zählstreifen steht für eine bestimmte Parameterkombination, insbesondere einen Querabstand und einen Richtungswinkel. Für die Bestimmung lokaler Maxima innerhalb einer zweidimensionalen Verteilung mit diskreter Wertebasis sind dem Fachmann verschiedene Verfahren bekannt.In a further step, at least one counting strip is determined which has a local counting maximum within the distribution of the counting strip sums. A counting strip stands for a certain combination of parameters, in particular a transverse distance and a direction angle. Various methods are known to the person skilled in the art for determining local maxima within a two-dimensional distribution with a discrete value base.

In einem weiteren Schritt wird für einen Zählstreifen mit einem lokalen Zählmaximum ein Linien-Objekt im Bewegungs-Koordinatensystem mit dem Richtungswinkel und dem Querabstand dieses Zählstreifens definiert. Durch die Analyse lokaler Maxima in einer diskreten Verteilung vorbestimmter Parameterkombinationen lassen sich auf effiziente Weise Linien in der Umgebung des Fahrzeugs bestimmen, auf denen möglichst viele erfassbare Kanten-Merkmale bzw. Kanten-Punkte liegen.In a further step, a line object in the motion coordinate system is defined for a metering strip with a local counting maximum with the direction angle and the transverse distance of this metering strip. By analyzing local maxima in a discrete distribution of predetermined parameter combinations, lines in the vicinity of the vehicle can be determined in an efficient manner, on which as many detectable edge features or edge points as possible lie.

Bevorzugt werden auf Basis der erzeugten Linien-Objekte Kontur-Linien-Objekte bestimmt, die mindestens ein Ende aufweisen. In einer besonders vorteilhaften Ausführungsform wird für die Bestimmung von Kontur-Linien-Objekten ein Clustering von Kanten-Punkten eingesetzt.Based on the line objects generated, contour line objects are preferably determined which have at least one end. In a particularly advantageous embodiment, clustering of edge points is used for the determination of contour line objects.

StreifenerkennungsverfahrenStrip detection method

Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Streifenerkennungsverfahren. Dieses Verfahren kann ebenfalls als Teilverfahren des Objekterkennungsverfahrens oder eigenständig ausgeführt werden. Das Streifenerkennungsverfahren beinhaltet die kennzeichnenden Merkmale des Anspruchs 10.Another independent aspect of this disclosure is a stripe detection method. This method can also be carried out as a sub-method of the object recognition method or independently. The stripe detection method includes the characterizing features of claim 10.

Das Verfahren beinhaltet das Bestimmen von Streifen-Objekten auf Basis zuvor erfasster Kontur-Linien-Objekte. Mit dem Verfahren können einander zugehörige Kontur-Linien eines Markierungsstreifens ermittelt werden. Aus zwei Kontur-Linien-Objekten lässt sich ein Streifen-Objekt erzeugen. Das Verfahren umfasst mehrere Schritte.The method includes the determination of stripe objects based on previously recorded contour line objects. Corresponding contour lines of a marking strip can be determined with the method. A stripe object can be created from two contour line objects. The process consists of several steps.

Ein Schritt beinhaltet das Beziehen von mindestens zwei Linien-Mengen, wobei die erste Linien-Menge Kontur-Linien-Objekte eines ersten Typs umfasst. Die zweite Linien-Menge umfasst Kontur-Linien-Objekte eines zweiten Typs. Bevorzugt handelt es sich bei den Kontur-Linien-Objekten des ersten Typs um die linke Seite eines Markierungsstreifens und beim zweiten Typ um die rechte Seite eines Markierungsstreifens.A step involves acquiring at least two sets of lines, the first set of lines comprising contour-line objects of a first type. The second set of lines includes contour line objects of a second type. The contour-line objects of the first type are preferably the left side of a marking strip and the second type the right side of a marking strip.

In einem weiteren Schritt wird jeweils ein Kontur-Linien-Objekt der ersten Linien-Menge mit einem Gegen-Kontur-Linien-Objekt der zweiten Linien-Menge verglichen. Der Vergleich findet jeweils paarweise statt. Dieser Schritt wird wiederholt ausgeführt. In a further step, a contour-line object of the first set of lines is compared with a counter-contour-line object of the second set of lines. The comparison takes place in pairs. This step is carried out repeatedly.

Innerhalb eines Vergleich-Paares wird ein Übereinstimmungsmaß zwischen dem Kontur-Linien-Objekt und dem Gegen-Kontur-Linien-Objekt bestimmt. Das Übereinstimmungsmaß richtet sich nach Parallelität, Abstand und/oder gegenseitiger Deckung zwischen den Kontur-Linien-Objekten eines Vergleich-Paares. Die Berechnung eines Übereinstimmungsmaßes auf Basis dieser Kriterien ist besonders vorteilhaft für eine effiziente Zuordnung einer Vielzahl von erkannten Kontur-Linien-Objekten untereinander. Das Übereinstimmungsmaß kann auch aus einer Auswahl oder einer Kombination einzelner Kriterien (Parallelität, Abstand, gegenseitige Deckung) bestimmt werden.Within a comparison pair, a measure of agreement between the contour line object and the counter-contour line object is determined. The measure of conformity depends on parallelism, distance and / or mutual coverage between the contour line objects of a comparison pair. The calculation of a measure of conformity on the basis of these criteria is particularly advantageous for an efficient assignment of a large number of recognized contour line objects to one another. The measure of conformity can also be determined from a selection or a combination of individual criteria (parallelism, distance, mutual coverage).

Für einen Markierungsstreifen in der Umgebung eines Fahrzeugs sind die typischen Breiten und Formen bekannt. Diese a priori Informationen können für die Bestimmung von Streifen-Objekten genutzt werden.The typical widths and shapes are known for a marking strip in the vicinity of a vehicle. This a priori information can be used for the determination of stripe objects.

Wenn das Übereinstimmungsmaß eines Vergleichs-Paares oberhalb eines Übereinstimmungs-Schwellenwertes liegt, wird ein Streifen-Objekt auf Basis des Kontur-Linien-Objekts und des Gegenkontur-Linien-Objekts des Vergleich-Paares erzeugt.If the match size of a comparison pair is above a match threshold, a stripe object is created based on the contour line object and the counter contour line object of the comparison pair.

Bevorzugt wird das Übereinstimmungsmaß mittels Vergleich zweier Deckungs-Flächen berechnet. Eine Deckungsfläche bezeichnet die Fläche querab eines Kontur-Linien-Objekts bis zu einem (gegebenenfalls gedanklich verlängerten) zweiten Kontur-Linien-Objekt.The measure of conformity is preferably calculated by comparing two coverage areas. A cover area denotes the area transverse to a contour line object up to a (possibly mentally extended) second contour line object.

ParkflächenerkennungsverfahrenParking space detection method

Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Parkflächenerkennungsverfahren. Mit diesem Verfahren können Parkflächen zwischen einer Mehrzahl erkannter Streifen-Objekte in der Umgebung des Fahrzeugs erkannt werden. Das Verfahren beinhaltet die kennzeichnenden Merkmale des Anspruchs 12.Another independent aspect of this disclosure is a parking area detection method. With this method, parking areas between a plurality of recognized strip objects in the surroundings of the vehicle can be recognized. The method includes the characterizing features of claim 12.

Das Verfahren umfasst das Erzeugen eines Parkflächen-Objekts auf Basis zuvor erfasster Streifen-Objekte. Bevorzugt wird eine Gruppe zusammenhängender Parkflächen in der Umgebung des Fahrzeugs identifiziert. Das Verfahren ist besonders geeignet für die Erkennung von quer zur Fahrtrichtung bzw. der Fahrbahn ausgerichtete Parkflächen, die parallel zueinander in einer Reihe oder einer Gruppe liegen.The method comprises the generation of a parking area object on the basis of previously detected stripe objects. A group of connected parking spaces in the vicinity of the vehicle is preferably identified. The method is particularly suitable for the detection of parking areas which are oriented transversely to the direction of travel or the lane and are parallel to one another in a row or a group.

Ein Ziel des Verfahrens ist es, in einer Menge von zuvor erkannten Streifen-Objekten Parkflächen zu identifizieren und diese möglichst robust und effizient von sonstigen Freiräumen zwischen den Streifen-Objekten zu unterschieden. So kann beispielsweise eine Durchfahrt zwischen zwei Streifen-Objekten von einer Parkfläche unterschieden werden.One aim of the method is to identify parking areas in a number of previously recognized stripe objects and to differentiate them as robustly and efficiently as possible from other open spaces between the stripe objects. For example, a passage between two strip objects can be distinguished from a parking area.

Das Verfahren umfasst mehrere Schritte. Ein Schritt beinhaltet das Beziehen von Streifen-Objekten, wobei ein Streifen-Objekt eine Position und eine Ausrichtung in einem Bewegungsraum-Koordinatensystem aufweist.The process consists of several steps. One step involves acquiring stripe objects, a stripe object having a position and an orientation in a movement space coordinate system.

Die Streifen-Objekte können durch eines der in dieser Offenbarung beschriebenen Verfahren erzeugt bzw. erkannt worden sein. Alternativ oder zusätzlich können auch Streifen-Objekte aus sonstigen Quellen oder einem anderen Softwaremodul oder einem Sensor bezogen werden.The stripe objects may have been created or recognized by one of the methods described in this disclosure. As an alternative or in addition, stripe objects can also be obtained from other sources or another software module or a sensor.

Die Erkennung der Parkflächen basiert auf einer Mustererkennung. Parkflächen auf größeren Parkplätzen sind in der Regel in Gruppen angeordnet. Die regelmäßigen Abstände und/oder Formen der Anordnung der Parkflächen bilden wiedererkennbare Muster. Diese Muster können vorteilhafterweise zur Identifikation einer Parkfläche genutzt werden.The recognition of the parking areas is based on a pattern recognition. Parking spaces in larger parking lots are usually arranged in groups. The regular intervals and / or forms of the arrangement of the parking areas form recognizable patterns. These patterns can advantageously be used to identify a parking area.

In einem Schritt wird ein Bezugs-Streifen-Objekt aus einer Menge bezogener Streifen-Objekte bestimmt. Dieser Schritt kann wiederholt für verschiedene Streifen-Objekte ausgeführt werden. Ein Bezugs-Streifen-Objekt dient als Startpunkt bei der Suche nach Mustern in der Menge von bekannten Streifen-Objekten. Diese Suche kann wiederholt für mehrere oder alle erfassten Streifen-Objekte ausgeführt werden. Bevorzugt werden mehrere Durchgänge nacheinander für verschiedene Bezugs-Streifen-Objekte durchgeführt.In one step, a reference stripe object is determined from a set of related stripe objects. This step can be repeated for different stripe objects. A reference stripe object serves as a starting point when looking for patterns in the set of known stripe objects. This search can be carried out repeatedly for several or all detected strip objects. Several passes are preferably carried out in succession for different reference strip objects.

In einem weiteren Schritt werden mehrere vorbestimmte Abstandsmuster auf die bezogenen Streifen-Objekte angewandt. Ein Abstands-Muster wird durch parallel versetzte Muster-Linien gebildet, die mit einem widerkehrenden Muster-Versatz von einem Bezugs-Streifen-Objekt ausgehend bestimmt werden. Diese Muster-Linien dienen zur Berechnung von Abweichungen zwischen dem vorbestimmten Muster und den erfassten Streifen-Objekten.In a further step, a plurality of predetermined spacing patterns are applied to the related stripe objects. A spacing pattern is formed by parallel staggered pattern lines, which are determined with a repetitive pattern offset starting from a reference strip object. These pattern lines are used to calculate deviations between the predetermined pattern and the detected stripe objects.

Muster-Linien können als virtuelle Berechnungshilfen betrachtet werden. In der Implementierung des Verfahrens können solche Muster-Linien durch verschiedene Parametrisierungen umgesetzt werden. Es ist beispielsweise möglich, einen bestimmten Muster-Versatz mit einem Index zu kombinieren. Jede Muster-Linie ist durch eine Kombination von einem Bezugs-Streifen-Objekt, einem Muster-Versatz und einem Index festgelegt. Sample lines can be viewed as virtual calculation aids. In the implementation of the method, such pattern lines can be implemented using various parameterizations. For example, it is possible to combine a certain pattern offset with an index. Each pattern line is through one Combination of a reference strip object, a pattern offset and an index specified.

Zusätzlich kann festgelegt werden, ob die Muster-Linien in eine oder beide Richtungen quer zum Bezugs-Streifen-Objekt bestimmt werden.In addition, it can be determined whether the pattern lines are determined in one or both directions across the reference strip object.

In einem weiteren Schritt wird ein optimales Abstands-Muster mit bester Passung zwischen den Streifen-Objekten und den Muster-Linien des Abstands-Musters bestimmt. Ein Abstands-Muster ist optimal, wenn das Abstands-Muster eine minimale Abweichung bzw. beste Passung zwischen den bezogenen Streifen-Objekten und den Muster-Linien dieses Musters aufweist.In a further step, an optimal spacing pattern with the best fit between the stripe objects and the pattern lines of the spacing pattern is determined. A spacing pattern is optimal if the spacing pattern has a minimal deviation or best fit between the related stripe objects and the pattern lines of this pattern.

Die Passung wird bevorzugt zwischen einem Streifen-Objekt und einer Muster-Linie in der Nähe des Streifen-Objekts berechnet. Für die Bestimmung der Passung ist eine Fehlerfunktion besonders geeignet.The fit is preferably calculated between a stripe object and a pattern line near the stripe object. An error function is particularly suitable for determining the fit.

Ein optimales Abstands-Muster weist einen optimalen Muster-Versatz auf. Die verschiedenen vorbestimmten Abstands-Muster weisen jeweils einen vorgegebenen Muster-Versatz auf. Die vorgegebenen Muster-Versätze orientieren sich bevorzugt an den üblicherweise auf Parkplätzen vorzufindenden Parkflächenbreiten. Bevorzugt werden mehrere Muster-Versatz-Werte in einem Bereich von 2m bis 4m. Insbesondere in Deutschland sind Muster-Versatz-Werte von 2,3m bis 2,5m vorteilhaft.An optimal spacing pattern has an optimal pattern offset. The various predetermined spacing patterns each have a predetermined pattern offset. The predefined pattern offsets are preferably based on the parking area widths usually found in parking lots. Several pattern offset values in a range from 2 m to 4 m are preferred. In Germany in particular, pattern offset values of 2.3 m to 2.5 m are advantageous.

In einem weiteren Schritt wird ein Passungs-Satz aus einem Bezugs-Streifen-Objekt und mindestens einem weiteren Streifen-Objekt bestimmt. Ein Passungs-Satz enthält Streifen-Objekte, die innerhalb eines ToleranzBereichs um eine Muster-Linie des optimalen Abstandsmusters liegen. Bevorzugt umfasst ein Passungs-Satz mindestens drei Streifen-Objekte.In a further step, a set of fits is determined from a reference strip object and at least one further strip object. A fit set contains stripe objects that lie within a tolerance range around a pattern line of the optimal spacing pattern. A set of fits preferably comprises at least three stripe objects.

Die Erkennung von Mustern findet in zwei Stufen statt. In der ersten Stufe wird aus einer Auswahl vorbestimmter Abstands-Muster ein optimales Abstands-Muster bestimmt. In der zweiten Stufe werden diejenigen Streifen-Objekte identifiziert, die sich mit dem optimalen Muster decken. Sie gehören mit erhöhter Wahrscheinlichkeit zu einer zusammenhängenden Gruppe von Parkflächen. Da die typischen Anordnungen von Parkflächen bekannt sind, ist diese Anwendung von vorbestimmten Mustern und das Testen gegenüber den erfassten Streifen-Objekten besonders vorteilhaft. Die Verarbeitung erkannter Streifen-Objekte kann so sehr effizient ausgeführt werden.Pattern recognition takes place in two stages. In the first stage, an optimal distance pattern is determined from a selection of predetermined distance patterns. In the second stage those stripe objects are identified that coincide with the optimal pattern. It is more likely that they belong to a coherent group of parking spaces. Since the typical arrangements of parking areas are known, this application of predetermined patterns and testing against the detected strip objects is particularly advantageous. The processing of recognized strip objects can thus be carried out very efficiently.

In einem weiteren Schritt wird eine zusammenhängende Gruppe von Parkflächen-Objekten zwischen den Streifen-Objekten eines Passungs-Satzes bestimmt.In a further step, a coherent group of parking area objects between the strip objects of a fit set is determined.

Es wird insbesondere ein Parkflächen-Objekt zwischen zwei Streifen-Objekten eines Passungs-Satzes erzeugt. Die Parkflächen werden bevorzugt als eine zusammenhängende Gruppe erzeugt. Eine Parkfläche weist eine bestimmte Größe und Lage auf. Außerdem besteht ein Bezug zwischen einer Parkfläche und den zugehörigen Streifen-Objekten.In particular, a parking area object is created between two stripe objects of a set of fits. The parking areas are preferably created as a coherent group. A parking area has a certain size and location. There is also a relationship between a parking area and the associated strip objects.

Es ist möglich, dass in der Umgebung des Fahrzeugs mehrere getrennte Gruppen von Parkflächen vorliegen. In diesem Fall können mehrere Passungs-Sätze für verschiedene Bezugs-Streifen-Objekte bestimmt werden.It is possible that there are several separate groups of parking spaces in the vicinity of the vehicle. In this case, several sets of fits can be determined for different reference strip objects.

Im Folgenden werden die Zeichnungen dieser Offenbarung näher erläutert und weitere vorteilhafte Merkmale und Ausführungsformen der Erfindung beschrieben.The drawings of this disclosure are explained in more detail below and further advantageous features and embodiments of the invention are described.

FigurenlisteFigure list

Die Erfindung ist in den Zeichnungen beispielhaft und schematisch dargestellt. Es zeigen:

  • 1: eine Draufsicht auf ein Fahrzeug, in dessen Umgebung sich zwei Parkflächen befinden;
  • 2: eine Umgebungs-Bildaufnahme mit mehreren Abtastsegmenten und einem Vergrößerungsausschnitt (Z);
  • 3: zwei zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen während einer Bewegung des Fahrzeugs sowie einen Vergrößerungsausschnitt (Y);
  • 4: schematische Darstellung eines Fahrzeugs auf einer Fahrebene und Kanten-Punkten in unterschiedlichen Höhen gegenüber der Fahrebene;
  • 5: ein Bewegungsraum-Koordinatensystem mit einem Raster und darin verortete Kanten-Punkten vor und nach einer inkrementellen Bewegung des Fahrzeugs zwischen zwei Umgebungs-Bildaufnahmen;
  • 6: mehrere vorbestimmte Zählstreifen mit verschiedenen Querabständen und Richtungswinkeln in einem Bewegungsraum-Koordinatensystem;
  • 7: eine Verteilung von Zählstreifen-Summen mit zwei lokalen Maxima;
  • 8: ein erzeugtes Linien-Objekt sowie ein durch Clustering von Kanten-Punkten bestimmtes Kontur-Linien-Objekt in einem Bewegungsraum-Koordinatensystem;
  • 9: erfasste Kontur-Linien-Objekte in einem Bewegungsraum-Koordinatensystem;
  • 10: Kontur-Linien-Objekte mit unterschiedlichen Übereinstimmungsmaßen sowie ein Streifen-Objekt aus zwei Kontur-Linien-Objekten;
  • 11: Bestimmung eines Übereinstimmungsmaßes zwischen einem Kontur-Linien-Objekt und einem Gegen-Kontur-Linien-Objekt;
  • 12: Anwendung zweier vorbestimmter Abstands-Muster mit zwei verschiedenen Muster-Versätzen auf ein Bezugs-Streifen-Objekt;
  • 13: Bestimmung eines Passungs-Satzes für ein optimales Abstands-Muster zwischen Parkflächenbegrenzungen;
The invention is illustrated by way of example and schematically in the drawings. Show it:
  • 1 : a plan view of a vehicle in the vicinity of which there are two parking spaces;
  • 2nd : an environmental image recording with several scan segments and a magnification section ( Z. );
  • 3rd : two temporally offset ambient images during a movement of the vehicle as well as an enlarged section ( Y );
  • 4th : schematic representation of a vehicle on a driving level and edge points at different heights compared to the driving level;
  • 5 : a movement space coordinate system with a grid and edge points located therein before and after an incremental movement of the vehicle between two surrounding images;
  • 6 : a plurality of predetermined counting strips with different transverse distances and direction angles in a movement space coordinate system;
  • 7 : a distribution of counting strip sums with two local maxima;
  • 8th : a generated line object and a contour line object determined by clustering edge points in a movement space coordinate system;
  • 9 : Detected contour line objects in a movement space coordinate system;
  • 10th : Contour line objects with different dimensions of conformity as well as a stripe object from two contour line objects;
  • 11 : Determination of a measure of conformity between a contour line object and a counter-contour line object;
  • 12th : Application of two predetermined distance patterns with two different pattern offsets to a reference strip object;
  • 13 : Determination of a fit rate for an optimal distance pattern between parking area boundaries;

Die in den Zeichnungen dargestellten Elemente können Teil der Umgebung des Fahrzeugs, d.h. reale Gegenstände oder Formen, oder Abbildungen dieser realen Gegenstände in einer Umgebungs-Bildaufnahme oder virtuelle Elemente sein, die der Darstellung einer Datenstruktur oder eines Verfahrensschritts dienen.The elements shown in the drawings can be part of the environment of the vehicle, i.e. real objects or shapes, or images of these real objects in an environmental image or virtual elements that serve to represent a data structure or a process step.

Die verschiedenen Datenstrukturen, insbesondere Objekte der offenbarten Verfahren, können auch in anderen Darstellungsformen visualisiert werden. Die Erfindung ist nicht auf diese hier gewählte, besonders einfach verständliche Darstellungsform beschränkt. Insbesondere können die beanspruchten Datenstrukturen oder Verfahrensschritte bzw. Verfahrensergebnisse in einer grafischen Ausgabe einer Vorrichtung anders gewählt sein.The various data structures, in particular objects of the disclosed methods, can also be visualized in other forms of representation. The invention is not restricted to the particularly simple to understand form of representation chosen here. In particular, the claimed data structures or process steps or process results can be selected differently in a graphic output of a device.

Für die Darstellung in den Zeichnungen wurden besonders vorteilhafte Ausführungsformen gewählt. Vereinzelt sind Elemente zum leichteren Verständnis in den Zeichnungen bewusst nicht dargestellt, da diese sonst nicht mehr für den menschlichen Betrachter verständlich wären.Particularly advantageous embodiments have been chosen for the representation in the drawings. Occasionally, elements for easier understanding are deliberately not shown in the drawings, since otherwise they would no longer be understandable to the human viewer.

1 zeigt ein Fahrzeug (1) mit einem Umgebungssensor (11). Der Umgebungssensor (11) ist bevorzugt eine Kamera. Es ist für die Praxis besonders vorteilhaft Fish-Eye-Kameras (11) einzusetzen, die einen besonders breiten Erfassungsbereich haben. 1 shows a vehicle ( 1 ) with an environmental sensor ( 11 ). The environmental sensor ( 11 ) is preferably a camera. It is particularly advantageous in practice for fish eye cameras ( 11 ) that have a particularly wide coverage.

In der Umgebung des Fahrzeugs liegen zwei Parkflächen (2). Die Parkflächen (2) sind jeweils durch Parkflächenmarkierungen (201) gekennzeichnet. An den Rändern der Parkflächenmarkierungen (201) bilden sich optisch wahrnehmbare lineare Grenzstrukturen (202).There are two parking spaces in the vicinity of the vehicle ( 2nd ). The parking areas ( 2nd ) are marked by parking area markings ( 201 ) marked. At the edges of the parking area markings ( 201 ) optically perceptible linear boundary structures ( 202 ).

Eine optisch wahrnehmbare Grenzstruktur ist insbesondere der Übergang von einem grauen Beton- oder Asphaltboden zu einem weißen oder gelben Farbstreifen. Alternativ oder zusätzlich können statt durchgezogener Markierungsstreifen auch unterbrochenen Markierungen erfasst werden.A visually perceptible boundary structure is in particular the transition from a gray concrete or asphalt floor to a white or yellow color stripe. As an alternative or in addition, interrupted markings can also be detected instead of solid marking strips.

Das Fahrzeug (1) weist in dieser Ausführungsform eine Kamera (11) auf, die den Bereich neben dem Fahrzeug quer zur Fahrrichtung aufnimmt. Alternativ oder zusätzlich können Bildaufnahmen weiterer Kameras, insbesondere in Front- oder Rückrichtung des Fahrzeugs, bezogen werden. In einer besonders vorteilhaften Ausführungsform werden Bildinformationen aus der Kombination mehrerer gleichzeitig aufgenommener Bildaufnahmen verwendet.The vehicle ( 1 ) has a camera in this embodiment ( 11 ) that takes up the area next to the vehicle transversely to the direction of travel. As an alternative or in addition, image recordings of further cameras, in particular in the front or rear direction of the vehicle, can be obtained. In a particularly advantageous embodiment, image information from the combination of a plurality of image recordings taken simultaneously is used.

Die Parkflächenmarkierungen (201) werden in der Regel durch Markierungsstreifen gebildet, die auf dem Untergrund der Umgebung aufgemalt sind. Die Parkflächenmarkierungen (201) liegen in der Regel im Wesentlichen auf Höhe der Fahrebene. In der Umgebung des Fahrzeugs (1) können sich wie in 1 dargestellt auch weitere Objekte wie beispielsweise ein Verkehrsschild oder ein ebenfalls auf dem Untergrund aufgemalter Richtungspfeil befinden. Auch solche Objekte werden in einer Umgebungs-Bildaufnahme (300) in der Regel abgebildet.The parking area markings ( 201 ) are usually formed by marking strips, which are painted on the background of the environment. The parking area markings ( 201 ) are generally at the level of the driving level. In the vicinity of the vehicle ( 1 ) can look like in 1 shown are also other objects such as a traffic sign or a directional arrow also painted on the ground. Such objects are also recorded in a surrounding image ( 300 ) usually shown.

2 zeigt eine beispielhafte Umgebungs-Bildaufnahme (300). Eine Umgebungs-Bildaufnahme (300) kann eine Momentaufnahme, sog. Frame, einer Videoaufnahme darstellen. Die Umgebungs-Bildaufnahme (300) umfasst Bildinformationen, die in der Regel in einem Pixelraster darstellbar sind. Eine Bildinformation lässt sich einem bestimmten Punkt in einem Bild zuordnen. Die einzelnen Bildpunkte lassen sich über einen oder zwei Indizes, insbesondere einen Reihen- und einen Spalten-Index, bestimmen. Alternativ oder zusätzlich kann ein anderes Bild-Koordinatensystem gewählt werden. 2nd shows an exemplary environment image recording ( 300 ). An environmental image capture ( 300 ) can represent a snapshot, so-called frame, of a video recording. The surrounding image acquisition ( 300 ) includes image information that can usually be displayed in a pixel grid. Image information can be assigned to a specific point in an image. The individual pixels can be determined via one or two indices, in particular a row and a column index. Alternatively or additionally, a different image coordinate system can be selected.

Abhängig von der Anordnung und Ausrichtung eines Umgebungssensors am Fahrzeug weist eine Umgebungs-Bildaufnahme (300) eine bestimmte Perspektive auf. Außerdem können in der Umgebungs-Bildaufnahme Bereiche oberhalb und unterhalb des Horizonts abgebildet sein. In der Regel ist für die Objekterkennung nur ein bestimmter Bereich einer Umgebungs-Bildaufnahme (300) interessant. Gerade für Echtzeitanwendungen ist die zu verarbeitende Menge an Daten, insbesondere Bildinformationen, entscheidend für die Verarbeitungsgeschwindigkeit. Es ist daher vorteilhaft nur Bildinformationen aus einem möglichst beschränkten Bildausschnitt zu verarbeiten.Depending on the arrangement and orientation of an environmental sensor on the vehicle, an environmental image recording ( 300 ) a certain perspective. Areas above and below the horizon can also be imaged in the surrounding image recording. As a rule, only a certain area of an ambient image recording ( 300 ) Interesting. Especially for real-time applications, the amount of data to be processed, especially image information, is decisive for the processing speed. It is therefore advantageous to process only image information from an image section that is as limited as possible.

In einer vorteilhaften Ausführungsform werden nur Bildinformationen innerhalb eines bestimmten, insbesondere statischen, Ausschnitts betrachtet. Innerhalb des statischen Bildausschnitts werden bevorzugt zusätzliche, insbesondere dynamische, Beschränkungen der zu verarbeitenden Bildinformationen vorgenommen. Bevorzugt wird ein (dynamischer) Verarbeitungsausschnitt (301) innerhalb einer statischen „Region of Interest“ (ROI) bestimmt. Die Bestimmung des Verarbeitungsausschnitts (301) wird bevorzugt für jede bezogene Umgebungs-Bildaufnahme (300, 300') durchgeführt.In an advantageous embodiment, only image information within a certain, in particular static, section is considered. Additional, in particular dynamic, restrictions of the image information to be processed are preferably made within the static image section. A (dynamic) processing section ( 301 ) within a static region of interest (ROI). The determination of the processing section ( 301 ) is preferred for every related surrounding image recording ( 300 , 300 ' ) carried out.

Die Umgebungs-Bildaufnahme (300) kann in einer Vielzahl von Abtastsegmenten (302) aufgeteilt werden. Innerhalb eines Abtastsegments (302) lässt sich eine besonders effiziente Vorverarbeitung der Bildinformationen durchführen. Wenn die Vorverarbeitung innerhalb eines Abtastsegments (302) zu dem Ergebnis kommt, dass das Abtastsegment Merkmale für eine optisch wahrnehmbare lineare Grenzstruktur aufweist, wird dieses Abtastsegment (302) zu einem Verarbeitungsausschnitt (301) hinzugefügt.The surrounding image acquisition ( 300 ) can be used in a large number of scan segments ( 302 ) can be divided. Within a scan segment ( 302 ) a particularly efficient preprocessing of the image information can be carried out. If preprocessing within a scan segment ( 302 ) If the result is that the scanning segment has features for an optically perceptible linear boundary structure, this scanning segment ( 302 ) to a processing section ( 301 ) added.

Ein Verarbeitungsausschnitt (301) setzt sich aus mindestens einem Abtastsegment (302) zusammen. Die Abtastsegmente (302) in einem Verarbeitungsausschnitt (301) können aneinander angrenzen, einander überlappen und/oder in einem bestimmten Abstand zueinander liegen. Der Verarbeitungsausschnitt (301) kann ein- oder mehrteilig ausgebildet sein. In 2 sind nur die Abtastsegmente (302) dargestellt, die dem Verarbeitungsausschnitt (301) hinzugefügt worden sind.A processing cutout ( 301 ) consists of at least one scan segment ( 302 ) together. The scan segments ( 302 ) in a processing section ( 301 ) can adjoin, overlap and / or be at a certain distance from each other. The processing section ( 301 ) can be formed in one or more parts. In 2nd are just the scan segments ( 302 ) which corresponds to the processing section ( 301 ) have been added.

Innerhalb eines Abtastsegmentes (302) wird nach Kanten-Merkmalen (310) gesucht. Der Vergrößerungsausschnitt (Z) zeigt ein Abtastsegment (302) mit mehreren Kanten-Merkmalen (310) entlang einer optisch wahrnehmbaren linearen Grenzstruktur (202). Within a scan segment ( 302 ) is based on edge characteristics ( 310 ) searched. The enlarged section ( Z. ) shows a scan segment ( 302 ) with multiple edge features ( 310 ) along an optically perceptible linear boundary structure ( 202 ).

Die Kanten-Merkmale (310) werden bevorzugt durch Anwenden eines Kantenfilters auf die Umgebungs-Bildaufnahme (300) oder einen Ausschnitt, insbesondere den Verarbeitungsausschnitt (301), ermittelt. Ein Kanten-Merkmal ist in dieser bevorzugten Ausführungsform einem bestimmten Pixel in der Bildaufnahme zugeordnet. Die Kanten-Merkmale (310) bilden eine diskrete Menge.The edge features ( 310 ) are preferred by applying an edge filter to the surrounding image ( 300 ) or a section, in particular the processing section ( 301 ), determined. In this preferred embodiment, an edge feature is assigned to a specific pixel in the image acquisition. The edge features ( 310 ) form a discrete set.

Innerhalb des Abtastsegments (302) werden die Kanten-Merkmale (310) richtungsbezogen gezählt. In einer bevorzugten Ausführungsform werden mehrere vorbestimmte Zähl-Richtungen (315) verwendet. Die Zähl-Richtungen (315) können durch diskrete Winkelschritte definiert werden Bevorzugt werden die Kanten-Merkmale von mehreren Ausgangspunkten in einer jeweiligen Zähl-Richtung (315) gezählt. Die Richtungsbezogene Zählung hat den besonderen Vorteil, dass Kanten-Merkmale auf einer linearen Grenzstruktur (202) zu einem besonders hohen Zählerergebnis führen.Within the scan segment ( 302 ) the edge features ( 310 ) counted according to direction. In a preferred embodiment, a plurality of predetermined counting directions ( 315 ) used. The counting directions ( 315 ) can be defined by discrete angular steps. The edge characteristics of several starting points in a respective counting direction are preferred ( 315 ) counted. The directional count has the particular advantage that edge features are based on a linear boundary structure ( 202 ) lead to a particularly high meter result.

In einer weiteren besonders vorteilhaften Ausführungsform wird ein Histogramm für die Anzahl gezählter Kanten-Merkmale (310) entlang einer Zähl-Richtung (315) erstellt. Insbesondere können mehrere Histogramme für verschiedene Zähl-Richtungen erzeugt werden, wobei innerhalb eines Histogramms parallele Zähl-Richtungen an quer versetzten Stellen erfasst sind.In a further particularly advantageous embodiment, a histogram for the number of counted edge features ( 310 ) along a counting direction ( 315 ) created. In particular, several histograms can be generated for different counting directions, parallel counting directions being recorded at transversely offset locations within a histogram.

Wenn eine richtungsbezogene Zählsumme für eine Zählrichtung (315) einen Verarbeitungs-Relevanz-Schwellenwert überschreitet, wird dieses Abtastsegment (302) dem Verarbeitungsausschnitt (301) hinzugefügt.If a directional count for a counting direction ( 315 ) exceeds a processing relevance threshold, this scan segment ( 302 ) the processing section ( 301 ) added.

Abtastsegmente, für die keine Zählsumme über einem Verarbeitungs-Relevanz-Schwellenwert liegen, werden bevorzugt nicht zum Verarbeitungsausschnitt hinzugefügt. In einer vorteilhaften Ausführungsform können jedoch noch zusätzliche Kriterien für die Aufnahme eines Abtastsegments in den Verarbeitungsausschnitt berücksichtigt werden. Zum Beispiel können benachbarte Abtastsegmente bereits hinzugefügter Abtastsegmente zusätzlich aufgenommen werden.Sampling segments for which no count sum lies above a processing relevance threshold value are preferably not added to the processing section. In an advantageous embodiment, however, additional criteria for the inclusion of a scanning segment in the processing section can be taken into account. For example, adjacent scan segments of previously added scan segments can also be included.

Die Bestimmung eines Verarbeitungsausschnitts (301) wird bevorzugt für jede bezogene Umgebungs-Bildaufnahme (300) vorgenommen. Ein dynamischer Verarbeitungsausschnitt (301) hat den Vorteil, dass die zu verarbeitende Datenmenge sich an verändernde Umgebungsbedingungen, insbesondere während einer Bewegung des Fahrzeugs (1), anpassen kann.The determination of a processing section ( 301 ) is preferred for every related surrounding image recording ( 300 ) performed. A dynamic processing section ( 301 ) has the advantage that the amount of data to be processed changes depending on the ambient conditions, especially during a movement of the vehicle ( 1 ), can adjust.

Das richtungsbezogene Zählen eignet sich besonders zur Unterscheidung von Kanten-Merkmalen (310) an linearen Grenzstrukturen (202) von sonstigen Grenzstrukturen, insbesondere an gekrümmten Konturen.Directional counting is particularly suitable for distinguishing edge features ( 310 ) at linear boundary structures ( 202 ) of other boundary structures, especially on curved contours.

2 zeigt außerdem Kanten-Merkmale eines ersten Typs (310a) und Kanten-Merkmalen eines zweiten Typs (310b). Typischerweise lassen sich Kanten-Merkmale auf einer bestimmten Seite eines Markierungsstreifens, z.B. der linken Seite, einem bestimmten Typ zuordnen. In einer bevorzugten Ausführungsform werden die Kanten-Merkmale (310a,310b) anhand des Gradienten der Bildinformationen unterschieden. Bevorzugt wird für die Erkennung von quer zur Fahrtrichtung liegenden Parkflächen ein lokaler Gradient in Horizontalrichtung der Bildaufnahme betrachtet. 2nd also shows edge features of a first type ( 310a) and edge features of a second type ( 310b) . Typically, edge features on a certain side of a marking strip, for example the left side, can be assigned to a certain type. In a preferred embodiment, the edge features ( 310a , 310b ) distinguished on the basis of the gradient of the image information. A local gradient in the horizontal direction of the image recording is preferably considered for the detection of parking areas lying transversely to the direction of travel.

3 zeigt zwei zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen (300,300`). Die beiden Umgebungs-Bildaufnahmen zeigen jeweils eine Abbildung der Umgebung des Fahrzeugs (1) zu einem bestimmten Zeitpunkt während einer Bewegung des Fahrzeugs. Entsprechend der Bewegung des Fahrzeugs (1) verschieben sich die abgebildeten Objekte in den Umgebungs-Bildaufnahmen. 3rd shows two temporally staggered environmental images ( 300 , 300` ). The two environmental images each show an image of the surroundings of the vehicle ( 1 ) at a certain point in time while the vehicle is moving. According to the movement of the vehicle ( 1 ) the depicted objects move in the surrounding images.

In einer bevorzugten Ausführungsform werden Kanten-Merkmale (310) für jede bezogene Umgebungs-Bildaufnahme (300) bestimmt. Bevorzugt werden die Umgebungs-Bildaufnahmen in einer bestimmten zeitlichen Taktung bezogen. In a preferred embodiment, edge features ( 310 ) for each related surrounding image recording ( 300 ) certainly. The surrounding image recordings are preferably obtained in a specific timing.

Der Vergrößerungsausschnitt (Y) in 3 zeigt weiterhin eine typische Anordnung zweier Kanten-Merkmale an den Konturen einer Parkflächenmarkierung (201), für die ein Kanten-Merkmal-Paar (320) bestimmbar ist. Das Kanten-Merkmal-Paar (320) besteht aus einem Bezugs-Kanten-Merkmal (321) und einem Gegen-Kanten-Merkmal (322). Die Bestimmung von Kanten-Merkmal-Paaren (320) ist besonders geeignet für die Extraktion von Kanten-Merkmalen an den Konturen von Markierungsstreifen aus einer größeren Menge von Kanten-Merkmalen an sonstigen Umgebungsobjekten.The enlarged section ( Y ) in 3rd also shows a typical arrangement of two edge features on the contours of a parking area marker ( 201 ) for which an edge feature pair ( 320 ) can be determined. The edge feature pair ( 320 ) consists of a reference edge characteristic ( 321 ) and a counter-edge feature ( 322 ). The determination of edge-feature pairs ( 320 ) is particularly suitable for the extraction of edge features on the contours of marking strips from a larger amount of edge features on other surrounding objects.

In einer bevorzugten Ausführungsform werden die Bildinformationen einer Umgebungs-Bildaufnahme (300) zeilenweise, insbesondere entlang einer horizontalen Suchrichtung (325), durchsucht. Besonders die Suche nach einem Gegen-Kanten-Merkmal (322) kann sehr effizient entlang einer Bildzeile gesucht werden.In a preferred embodiment, the image information of a surrounding image recording ( 300 ) line by line, especially along a horizontal search direction ( 325 ), searched. Especially the search for a counter-edge feature ( 322 ) can be searched very efficiently along an image line.

4 zeigt ein Fahrzeug (1), das auf einer Fahrebene (5) steht. Das Fahrzeug (1) verfügt über einen Umgebungssensor (11). In der Umgebung des Fahrzeugs (1) befindliche Objekte bilden optisch wahrnehmbare Grenzstrukturen (202), insbesondere an den Rändern von Markierungsstreifen oder anderen kantigen Übergängen z.B. an einem Fahrzeug oder einem Straßenschild. Die Grenzstrukturen (202) können in der Fahrebene (5) liegen oder in einer bestimmten Höhe (h) über oder unter der Fahrebene (5). 4th shows a vehicle ( 1 ) on a driving level ( 5 ) stands. The vehicle ( 1 ) has an environmental sensor ( 11 ). In the vicinity of the vehicle ( 1 ) located objects form optically perceptible boundary structures ( 202 ), especially on the edges of marking strips or other angular transitions, e.g. on a vehicle or a road sign. The border structures ( 202 ) in the driving level ( 5 ) or at a certain height ( H ) above or below the driving level ( 5 ).

Die schematisch dargestellte Umgebungs-Bildaufnahme (300) umfasst eine zweidimensionale Abbildung der dreidimensionalen Umgebung des Fahrzeugs (1). Die Abbildung findet physikalisch in einem Umgebungssensor (11) statt.The schematically illustrated surrounding image recording ( 300 ) includes a two-dimensional image of the three-dimensional environment of the vehicle ( 1 ). The mapping takes place physically in an environmental sensor ( 11 ) instead of.

Die Kanten-Punkte (410,410x) im (zwei- oder dreidimensionalen) Bewegungsraum-Koordinatensystem (400) werden bevorzugt aus einer zweidimensionalen Umgebungs-Bildaufnahme (300) bestimmt. Für die Transformation können insbesondere Parameter einer Kamera-Kalibrierung verwendet werden. Im Allgemeinen können aus einer zweidimensionalen Bildaufnahme nicht alle unabhängigen Koordinaten eines Kanten-Punkts (410) direkt bestimmt werden. Der Kanten-Punkt könnte theoretisch auf einer Vielzahl möglicher Positionen entlang einer Projektionslinie (411) liegen.The edge points ( 410 , 410x ) in the (two- or three-dimensional) movement space coordinate system ( 400 ) are preferred from a two-dimensional environmental image recording ( 300 ) certainly. In particular, parameters of a camera calibration can be used for the transformation. In general, not all independent coordinates of an edge point ( 410 ) can be determined directly. The edge point could theoretically be in a variety of possible positions along a projection line ( 411 ) lie.

Durch die zusätzliche Annahme einer Ebene, insbesondere der Fahrebene (5), für die Positionsbestimmung eines Kanten-Punkts (410) kann eine zusätzliche unabhängige Koordinate bestimmt werden. Die so bestimmte Position beruht auf einer Hypothese, die wie im Falle des Kanten-Punkts (410) der Realität im Wesentlichen entsprechen kann oder wie im Falle des Kanten-Punkts (410x) der Realität widersprechen kann.By additionally assuming a level, especially the driving level ( 5 ), for the position determination of an edge point ( 410 ) an additional independent coordinate can be determined. The position determined in this way is based on a hypothesis that, as in the case of the edge point ( 410 ) can essentially correspond to reality or as in the case of the edge point ( 410x ) can contradict reality.

Im Falle eines Kanten-Merkmals (310), das in der Umgebungs-Bildaufnahme (300) an einer Grenzstruktur (202) auf Höhe der Fahrebene (5) liegt, kann ein zughöriger Kanten-Punkt (410) mit ausreichender Genauigkeit bestimmt werden. Für Kanten-Merkmale (310x), die an einer Grenzstruktur (202) außerhalb der Fahrebene (5) liegen, wird ein Kanten-Punkt (410x) mit einer fehlerbehafteten Position im Bewegungsraum-Koordinatensystem (400) bestimmt. Die Annahme der Fahrebene (5) ist in diesem Fall nicht zutreffend. Es kommt zu einer Abweichung zwischen der bestimmten Position (410x) und der tatsächlichen Position (410r) des entsprechenden Merkmals an der Grenzstruktur (202).In the case of an edge feature ( 310 ), which in the surrounding image recording ( 300 ) at a border structure ( 202 ) at the driving level ( 5 ), an associated edge point ( 410 ) can be determined with sufficient accuracy. For edge features ( 310x) connected to a border structure ( 202 ) outside the driving level ( 5 ), an edge point ( 410x ) with an incorrect position in the movement space coordinate system ( 400 ) certainly. The acceptance of the driving level ( 5 ) is not applicable in this case. There is a deviation between the determined position ( 410x ) and the actual position ( 410r) the corresponding feature on the border structure ( 202 ).

Für einen Computer ist mit nur einer zweidimensionalen Bildaufnahme nicht ohne Weiteres feststellbar, ob die Bestimmung eines Kanten-Punktes (410,410x) in einem Bewegungsraum-Koordinatensystem (400) korrekt bestimmt worden ist. Werden jedoch mehrere zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen (300,300’) betrachtet, so kann durch die Betrachtung des Fehlers bei der Bestimmung der Kanten-Punkte (410x, 410x`) ermittelt werden, welche Kanten-Punkte (410) mit erhöhter Wahrscheinlichkeit tatsächlich auf Höhe der Fahrebene (5) liegen.For a computer, it is not easy to determine with just two-dimensional image acquisition whether the determination of an edge point ( 410 , 410x ) in a movement space coordinate system ( 400 ) has been correctly determined. However, if several time-delayed environmental images ( 300 , 300 ' ), then by considering the error in determining the edge points ( 410x , 410x` ) determine which edge points ( 410 ) with increased probability actually at the driving level ( 5 ) lie.

Aus verschiedenen Perspektiven eines Umgebungssensors (11) wird die wiederholte Bestimmung von Kanten-Punkten (410x) derselben abgebildeten Grenzstruktur zu unterschiedlichen Fehlern bei der Bestimmung der Position eines Kanten-Punktes (410x) führen.From different perspectives of an environmental sensor ( 11 ) the repeated determination of edge points ( 410x ) the same illustrated boundary structure for different errors when determining the position of an edge point ( 410x ) to lead.

Tatsächlich auf Höhe der Fahrebene (5) liegende Kanten-Punkte (410,410') können mit hoher Wahrscheinlichkeit in mehreren nacheinander aufgenommenen Bildaufnahmen (300,300'), insbesondere aus verschiedenen Perspektiven, korrekt bestimmt werden. Es ist zu erwarten, dass Kanten-Punkte (410) aus einer älteren Umgebungs-Bildaufnahme (300), die gemäß der Eigenbewegung im Bewegungsraum-Koordinatensystem (400) verschoben wurden, mit Kanten-Punkten (410') derselben Grenzstruktur (202) in einer jüngeren Umgebungs-Bildaufnahme (300') zusammenfallen oder zumindest nahe bei einander liegen.In fact at the level of the driving level ( 5 ) lying edge points ( 410 , 410 ' ) can with high probability in several successive images ( 300 , 300 ' ), especially from different perspectives, can be determined correctly. It is expected that edge points ( 410 ) from an older surrounding image recording ( 300 ), which according to the own movement in the movement space coordinate system ( 400 ) with edge points ( 410 ' ) same boundary structure ( 202 ) in a recent surrounding image recording ( 300 ' ) coincide or at least lie close to each other.

Kanten-Punkte (410,410') derselben Grenzstruktur (202) können über mehrere zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen (300,300') akkumuliert werden. Die Akkumulation hat den Effekt, dass die angenommene Hypothese einer vorgegebenen Fahrebene (5) getestet werden kann.Edge points ( 410 , 410 ' ) same boundary structure ( 202 ) can take several time-delayed environmental images ( 300 , 300 ' ) can be accumulated. The accumulation has the effect that the assumed hypothesis of a given driving level ( 5 ) can be tested.

5 zeigt eine besonders vorteilhafte Ausführungsform zur Akkumulation von Kanten-Punkten (410) über mehrere Umgebungs-Bildaufnahmen (300,300') hinweg. Das Fahrzeug (1) bewegt sich zwischen den Aufnahmezeitpunkten der Aufnahmen (300,300'). Das Bewegungsraum-Koordinatensystem (400) wird während der Bewegung mit dem Fahrzeug (1) mitgeführt. 5 shows a particularly advantageous embodiment for the accumulation of edge points ( 410 ) over several surrounding images ( 300 , 300 ' ) away. The vehicle ( 1 ) moves between the recording times of the recordings ( 300 , 300 ' ). The movement space coordinate system ( 400 ) while moving with the vehicle ( 1 ) carried along.

Das in 5 dargestellte Raster (405) ist in Bezug auf das Bewegungsraum-Koordinatensystem (400) definiert. Das Raster (405) weist regelmäßig verteilte Raster-Zellen auf. Bevorzugt werden die Raster-Zellen in den zwei Dimensionen der Fahrebene (5) verteilt. Die Raster-Zellen können beispielsweise in einem regelmäßigen Abstand von 10 cm verteilt werden. Bevorzugt teilt das Raster einen bestimmten Ausschnitt des durch das Bewegungsraum-Koordinatensystem (400) definierten Raum in einheitliche Abschnitte auf. Die Einteilung kann zwei- oder dreidimensional sein. Das Raster (405) ist besonders vorteilhaft für eine effiziente Verortung von Kanten-Punkten (410), insbesondere für eine Zuweisung zu einem Akkumulationspunkt (420).This in 5 displayed grid ( 405 ) is related to the movement space coordinate system ( 400 ) Are defined. The grid ( 405 ) has regularly distributed raster cells. The grid cells in the two dimensions of the driving plane ( 5 ) distributed. The grid cells can be distributed, for example, at a regular distance of 10 cm. The grid preferably divides a specific section of the coordinate system defined by the movement space ( 400 ) defined space into uniform sections. The division can be two-dimensional or three-dimensional. The grid ( 405 ) is particularly advantageous for efficient location of edge points ( 410 ), especially for an assignment to an accumulation point ( 420 ).

Aus einer ersten Umgebungs-Bildaufnahme (300) werden Kanten-Punkte (410,410x) bestimmt. Zu einem späteren Zeitpunkt werden erneut Kanten-Punkte (410',410x') auf Basis einer jüngeren zweiten Umgebungs-Bildaufnahme (300') bestimmt. Kanten-Punkte (410,410x) aus einer jüngeren Umgebungs-Bildaufnahme (300) werden gem. der Bewegung des Fahrzeugs (1) im Bewegungsraum-Koordinatensystem (400) verschoben. Die Position der Kanten-Punkte (410,410x) wird bewegungskompensiert. Dem Fachmann sind Techniken zur Bewegungskompensation bekannt. In einer besonders vorteilhaften Ausführungsform werden alternativ oder zusätzlich zu den Kanten-Punkten Akkumulations-Punkte (420) verschoben.From a first picture of the surroundings ( 300 ) become edge points ( 410 , 410x ) certainly. At a later point, edge points ( 410 ' , 410x ' ) based on a recent second image of the surroundings ( 300 ' ) certainly. Edge points ( 410 , 410x ) from a recent surrounding image recording ( 300 ) are acc. the movement of the vehicle ( 1 ) in the movement space coordinate system ( 400 ) postponed. The position of the edge points ( 410 , 410x ) is compensated for movement. Techniques for motion compensation are known to those skilled in the art. In a particularly advantageous embodiment, alternatively or in addition to the edge points, accumulation points ( 420 ) postponed.

Für eine Umgebungs-Bildaufnahme (300) kann eine Vielzahl von Kanten-Merkmalen bzw. Kanten-Punkten (410,410x) bestimmt worden sein. Es ist daher besonders vorteilhaft, Kanten-Punkte (410), die nahe beieinanderliegen, zusammenzufassen. Vorteilhafterweise werden Akkumulationspunkte (420) verwendet, um Kanten-Punkte (410,410x) in einem bestimmten Nahbereich zusammenzufassen. In einer besonders vorteilhaften Ausführungsform werden die Rasterzellen (405) verwendet, um festzustellen, welche Kanten-Punkte akkumuliert bzw. zusammengefasst werden können.For environmental imaging ( 300 ) a variety of edge features or edge points ( 410 , 410x ) have been determined. It is therefore particularly advantageous to use edge points ( 410 ) that are close together. Accumulation points ( 420 ) used to edge points ( 410 , 410x ) summarize in a certain close range. In a particularly advantageous embodiment, the grid cells ( 405 ) used to determine which edge points can be accumulated or combined.

Bevorzugt ist jeder Rasterzelle (405) ein Akkumulationspunkt (420) zugewiesen. Kanten-Punkte (410,410x) werden im Raster verortet. Es wird festgestellt, in welcher Raster-Zelle ein Kanten-Punkt (410) liegt. Ein verorteter Kanten-Punkt (410) wird dem Akkumulations-Punkt (420) zugewiesen, der der entsprechenden Raster-Zelle zuordenbar ist. Beim Zusammenfassen bzw. Akkumulieren von Kanten-Punkten (410,410x) über mehrere Umgebungs-Bildaufnahmen hinweg wird festgestellt, wie viele Kanten-Punkte bereits in einem bestimmten Bereich, insbesondere in einem Akkumulationspunkt (420) zusammengefasst wurden.Each grid cell ( 405 ) an accumulation point ( 420 ) assigned. Edge points ( 410 , 410x ) are located in the grid. It is determined in which raster cell an edge point ( 410 ) lies. A located edge point ( 410 ) becomes the accumulation point ( 420 ) assigned to the corresponding raster cell. When summarizing or accumulating edge points ( 410 , 410x ) over several surrounding image recordings, it is determined how many edge points are already in a certain area, in particular in an accumulation point ( 420 ) have been summarized.

In einer besonders vorteilhaften Ausführungsform dienen die Akkumulations-Punkte (420) sowohl der Zusammenfassung von nah beieinanderliegender Kanten-Punkte (410) einer bestimmten Umgebungs-Bildaufnahme (300) als auch der Akkumulation von Kanten-Punkten (410,410') aus zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen (300, 300').In a particularly advantageous embodiment, the accumulation points ( 420 ) the combination of edge points that are close together ( 410 ) of a certain surrounding image recording ( 300 ) as well as the accumulation of edge points ( 410 , 410 ' ) from temporally staggered environmental images ( 300 , 300 ' ).

In einer Ausführungsform werden zwischen zeitlich versetzten Aufnahmezeitpunkten die Akkumulations-Punkte (420) weitergeführt und entsprechend der Eigenbewegung des Fahrzeugs verschoben. Mit einer neuen Umgebungs-Bildaufnahme (300') werden neue Kanten-Punkte (410',410x') bestimmt. Die neu bestimmten Kanten-Punkte (410',410x') werden wieder in bestimmten Nahbereichen zusammengefasst. Bevorzugt werden hierfür wiederum Akkumulations-Punkte verwendet. Es ist möglich, neue Akkumulations-Punkte für eine neue Umgebungs-Bildaufnahme (300') zu erzeugen. Alternativ oder zusätzlich können Akkumulations-Punkte (420) über mehrere zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen (300,300') weiterverwendet werden.In one embodiment, the accumulation points ( 420 ) continued and shifted according to the vehicle's own movement. With a new environment image acquisition ( 300 ' ) new edge points ( 410 ' , 410x ' ) certainly. The newly determined edge points ( 410 ' , 410x ' ) are summarized again in certain close ranges. Again accumulation points are preferably used for this. It is possible to add new accumulation points for a new environment image acquisition ( 300 ' ) to create. Alternatively or additionally, accumulation points ( 420 ) over several temporally staggered environmental images ( 300 , 300 ' ) continue to be used.

Es ist insbesondere vorteilhaft, eine bestimmte Anzahl an Akkumulations-Punkten (420) für eine bestimmte Anzahl an Raster-Zellen für jeden Aufnahmezeitpunkt vorzusehen. Akkumulations-Punkte aus vergangenen Umgebungs-Bildaufnahmen können wie Kanten-Punkte behandelt werden. Ein Akkumulations-Punkt (420) umfasst dieselbe oder eine ähnliche Information wie ein Kanten-Punkt (410). Zusätzlich enthält ein Akkumulations-Punkt eine Information über die Anzahl der bereits akkumulierten bzw. zusammengefassten Kanten-Punkte (410) oder Akkumulations-Punkte (420), insbesondere aus älteren Umgebungs-Bildaufnahmen (300). Diese Information ist bevorzugt in einem Akkumulations-Zähler erfasst. Bevorzugt weist ein Akkumulations-Punkt (420) eine Position und einen Akkumulations-Zähler auf. Beim Akkumulieren oder Hinzufügen eines Kanten-Punkts zu einem Akkumulations-Punkt kann der Akkumulations-Zähler um einen bestimmten Betrag erhöht werden.It is particularly advantageous to have a certain number of accumulation points ( 420 ) for a certain number of raster cells for each recording time. Accumulation points from past environmental images can be treated like edge points. An accumulation point ( 420 ) includes the same or similar information as an edge point ( 410 ). In addition, an accumulation point contains information about the number of edge points already accumulated or combined ( 410 ) or accumulation points ( 420 ), especially from older surrounding images ( 300 ). This information is preferably recorded in an accumulation counter. An accumulation point ( 420 ) a position and an accumulation counter. When accumulating or adding an edge point to an accumulation point, the accumulation counter can be increased by a certain amount.

In 5 lässt sich der Unterschied zwischen korrekt bestimmten Kanten-Punkten (410) und fehlerhaft bestimmten Kanten-Punkten (410x), deren tatsächliche Position (410r) in der realen Umgebung außerhalb der Fahrebene (5) liegt, erkennen. Durch die fehlerhafte Bestimmung der Kanten-Punkte (410x,410x') akkumulieren diese Kanten-Punkte nicht über mehrere zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen (300,300') während einer Bewegung des Fahrzeugs (1). In 5 the difference between correctly determined edge points ( 410 ) and incorrectly determined edge points ( 410x ) whose actual position ( 410r) in the real environment outside the driving level ( 5 ) lies. Due to the incorrect determination of the edge points ( 410x , 410x ' ) these edge points do not accumulate over several temporally offset environmental images ( 300 , 300 ' ) while the vehicle is moving ( 1 ).

In einer ersten Umgebungs-Bildaufnahme (300) wurden die Kanten-Punkte (410,410x) bestimmt. Kanten-Punkte (410), die in einer gemeinsamen Rasterzelle verortet werden, werden demselben Akkumulations-Punkt (420) zugewiesen. Der Akkumulations-Zähler der Akkumulations-Punkte (420) wird entsprechend der Anzahl der zusammengefassten Kanten-Punkte erhöht. Bevorzugt wird der Akkumulations-Zähler pro zugewiesenen Kanten-Punkt (410) um einen Schritt erhöht. In einer vorteilhaften Ausführungsform werden alternativ oder zusätzlich Akkumulations-Punkte (420) aus einer älteren Umgebungs-Bildaufnahme (300) mit Akkumulations-Punkten (420') aus einer jüngeren Umgebungs-Bildaufnahme (300') akkumuliert. Bei der Akkumulation einer Akkumulations-Punktes werden die Akkumulations-Zähler der akkumulierten Akkumulations-Punkte (420,420') bevorzugt addiert. Bevorzugt wird von einer Mehrzahl miteinander akkumulierter Akkumulations-Punkte (420,420') oder Kanten-Punkte (410, 410') nur ein Akkumulations-Punkt (420') weitergeführt. Dies ist besonders vorteilhaft für eine effiziente Speichernutzung.In a first environmental image acquisition ( 300 ) the edge points ( 410 , 410x ) certainly. Edge points ( 410 ), which are located in a common grid cell, become the same accumulation point ( 420 ) assigned. The accumulation counter of the accumulation points ( 420 ) is increased according to the number of edge points combined. The accumulation counter per assigned edge point ( 410 ) increased by one step. In an advantageous embodiment, alternatively or additionally, accumulation points ( 420 ) from an older surrounding image recording ( 300 ) with accumulation points ( 420 ' ) from a recent surrounding image recording ( 300 ' ) accumulated. When an accumulation point is accumulated, the accumulation counters of the accumulated accumulation points ( 420 , 420 ' ) preferably added. Of a plurality of accumulation points accumulated with one another ( 420 , 420 ' ) or edge points ( 410 , 410 ' ) only one accumulation point ( 420 ' ) continued. This is particularly advantageous for efficient memory usage.

Mit einer neuen zeitlich später aufgenommenen Umgebungs-Bildaufnahme (300') werden die Akkumulationspunkte (420) aus der vergangenen Umgebungs-Bildaufnahme (300) gem. der Eigenbewegung des Fahrzeugs verschoben. Akkumulations-Punkte (420) können die in der Vergangenheit aufgenommenen Kanten-Punkte (410) repräsentieren. Die verschobene Position der Akkumulations-Punkte (420',420x') entspricht der erwarteten Position von neu bestimmten Kanten-Punkten (410',410x'), falls die mit den Kanten-Punkten erfassten Grenzstrukturen (202) in der Realität tatsächlich auf Höhe der Fahrebene liegen.With a new surrounding image recording taken later in time ( 300 ' ) the accumulation points ( 420 ) from the past surrounding image recording ( 300 ) acc. the vehicle's own movement. Accumulation points ( 420 ) the edge points recorded in the past ( 410 ) represent. The shifted position of the accumulation points ( 420 ' , 420x ') corresponds to the expected position of newly determined edge points ( 410 ' , 410x ' ) if the boundary structures recorded with the edge points ( 202 ) are actually at the driving level in reality.

Wenn ein Objekt in der Umgebung eines Fahrzeugs in mehreren zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen (300,300') mit Kanten-Merkmalen erfassbar ist, ist zu erwarten, dass die entsprechenden Kanten-Punkte (410, 410') aus den zeitlich versetzten Umgebungs-Bildaufnahmen akkumulieren. Der Akkumulations-Zähler der Akkumulations-Punkte (420) enthält eine Information, wie oft Kanten-Punkte in einem bestimmten Bereich der Umgebung bestimmt worden sind. Mit steigender Anzahl akkumulierter Kanten-Punkte (410, 410') steigt die Wahrscheinlichkeit, dass in einem bestimmten Bereich tatsächlich eine Grenzstruktur auf Höhe der Fahrebene (5) erfasst wurde. Der Akkumulations-Zähler ist eine Konfidenz-Schätzung der Positionsbestimmung von Kanten-Punkten (410).If an object in the vicinity of a vehicle is recorded in several time-delayed environmental images ( 300 , 300 ' ) with edge features, it can be expected that the corresponding edge points ( 410 , 410 ' ) accumulate from the temporally offset surrounding image recordings. The accumulation counter of the accumulation points ( 420 ) contains information on how often edge points have been determined in a certain area of the environment. With increasing number of accumulated edge points ( 410 , 410 ' ) the likelihood increases that in a certain area a boundary structure at the driving level ( 5 ) was recorded. The accumulation counter is a confidence estimate of the position determination of edge points ( 410 ).

Wenn ein Akkumulations-Zähler eines Akkumulations-Punktes (420, 420') einen Konfidenz-Schwellenwert erreicht oder über diesem liegt, wird dieser Akkumulationspunkt oder darin akkumulierte Kanten-Punkte für eine Weiterverarbeitung freigegeben. Im Sinne dieser Offenbarung, insbesondere für eine Weiterverarbeitung von Daten, können Akkumulations-Punkte (420) und Kanten-Punkte (410) analog betrachtet werden. Ein Akkumulations-Punkt (420) kann ein Repräsentant eines oder mehrerer Kanten-Punkte (410) sein.If an accumulation counter of an accumulation point ( 420 , 420 ' ) reaches or exceeds a confidence threshold, this accumulation point or edge points accumulated therein are released for further processing. For the purposes of this disclosure, in particular for further processing of data, accumulation points ( 420 ) and edge points ( 410 ) can be viewed analogously. An accumulation point ( 420 ) a representative of one or more edge points ( 410 ) be.

6 zeigt eine schematische Darstellung einer Auswahl vorbestimmter Zählstreifen (435,435i) mit jeweils einem Richtungswinkel (Ai) und einem Querabstand (Di) einer bevorzugten Ausführungsform. Die Zählstreifen (435) sind in Bezug auf ein Bewegungsraum-Koordinatensystem (400) definiert, in dem auch Kanten-Punkte (410) bestimmbar sind. Analog zu den hier dargestellten Kanten-Punkten (410) können auch freigegebene Kanten-Punkte oder Akkumulations-Punkte mit einem Akkumulations-Zähler oberhalb des Konfidenz-Schwellenwertes betrachtet und/oder gezählt werden. 6 shows a schematic representation of a selection of predetermined counting strips ( 435 , 435i ) each with a direction angle (Ai) and a transverse distance (Di) of a preferred embodiment. The counting strips ( 435 ) are related to a movement space coordinate system ( 400 ) defined in which edge points ( 410 ) can be determined. Analogous to the edge points shown here ( 410 ) released edge points or accumulation points can also be viewed and / or counted with an accumulation counter above the confidence threshold.

Bevorzugt ist für jeden Zählstreifen (435) ein Linien-Objekt (430) bestimmbar. Bevorzugt weist das mit einem Zählstreifen verknüpfte Linien-Objekt denselben Richtungswinkel (Ai) und denselben Querabstand (Di) wie der zugehörige Zählstreifen (435i) auf. Ein Linien-Objekt (430) ist bevorzugt durch eine mathematische Gerade, insbesondere in der Fahrebene (5), bestimmt. Alternativ oder zusätzlich kann auch ein Parameter für eine dritte Dimension eines Linien-Objekts (430) verwendet werden. For each counting strip ( 435 ) a line object ( 430 ) determinable. The line object linked to a counting strip preferably has the same directional angle (Ai) and the same transverse distance (Di) as the associated counting strip ( 435i) on. A line object ( 430 ) is preferred by a mathematical straight line, especially in the driving plane ( 5 ), certainly. Alternatively or additionally, a parameter for a third dimension of a line object ( 430 ) be used.

Ein Zählstreifen (435i) umfasst einen bestimmten Bereich entlang und quer zu dem verknüpften Linien-Objekt, in dem Kanten-Punkte (410) diesem Zählstreifen (435i) zugerechnet werden. Die Zählstreifen mit verschiedenen Richtungswinkeln (Ai) überlappen sich mit hoher Wahrscheinlichkeit in bestimmten Bereichen. Parallele Zählstreifen (435) mit demselben Richtungswinkel (Ai) können direkt aneinander angrenzen oder sich überlappen oder sogar einen Abstand zueinander aufweisen.A counting strip ( 435i) encompasses a specific area along and across the linked line object in which edge points ( 410 ) this counting strip ( 435i) be attributed. The counting strips with different directional angles (Ai) are likely to overlap in certain areas. Parallel counting strips ( 435 ) with the same directional angle (Ai) can directly adjoin or overlap or even be at a distance from one another.

Für mind. einen Zählstreifen (435i) werden die innerhalb des Zählstreifens liegenden Kanten-Punkte (410) gezählt. Kanten-Punkte (410) können, insbesondere in überlappenden Zählstreifen, mehrfach zu je einem Zählstreifen gezählt werden. Die Anzahl der innerhalb eines Zählstreifens (435i) liegenden Kanten-Punkte (410) bildet eine Zählstreifen-Summe bzw. ein Zähl-Ergebnis (c[Ai,Di]). Ein Zähl-Ergebnis ist über einen Richtungswinkel (Ai) und einen Querabstand (Di) einem Zählstreifen (435i) und insbesondere einem möglichen Linien-Objekt (430) zuordenbar.For at least one counting strip ( 435i) the edge points within the counting strip ( 410 ) counted. Edge points ( 410 ), particularly in overlapping counting strips, can be counted several times to one counting strip. The number of within a counting strip ( 435i) lying edge points ( 410 ) forms a counting strip Sum or a counting result (c [Ai, Di]). A counting result is based on a direction angle (Ai) and a transverse distance (Di) on a counting strip ( 435i) and in particular a possible line object ( 430 ) assignable.

7 zeigt eine mögliche Verteilung von Zähl-Ergebnissen (c[Ai,Di]) für verschiedene vorbestimmte Querabstände (Di) und Richtungswinkel (Ai). Bevorzugt handelt es sich um eine diskrete Verteilung. Innerhalb der Verteilung lassen sich lokale Zähl-Maxima (cMj) bestimmen. Für jedes lokale Zähl-Maximum (cMj) ist ein zugehöriger Richtungswinkel (Amj) und ein zugehöriger Querabstand (Dmj) bestimmbar. Somit lässt sich mathematisch bestimmen, für welche Parameterkombinationen aus Richtungswinkel (Ai) und Querabstand (Di) die meisten Kanten-Punkte entlang einer Linie auffindbar sind. 7 shows a possible distribution of counting results (c [Ai, Di]) for different predetermined transverse distances (Di) and direction angle (Ai). It is preferably a discrete distribution. Local counting maxima ( cMj ) determine. For each local maximum count ( cMj ) is an associated directional angle ( Amj ) and an associated transverse distance ( Dmj ) determinable. In this way it can be mathematically determined for which parameter combinations of directional angle (Ai) and transverse distance (Di) most edge points along a line can be found.

Für mindestens ein Zähl-Maximum (cMj) wird ein Linien-Objekt (430) mit einem Richtungswinkel (Amj) und einem Querabstand (Dmj) des Zähl-Maximums erzeugt und/oder für eine Weiterverarbeitung freigegeben.For at least one count maximum ( cMj ) becomes a line object ( 430 ) with a directional angle ( Amj ) and a transverse distance ( Dmj ) of the maximum count generated and / or released for further processing.

Bevorzugt wird eine Menge von Linien-Objekten (430) erzeugt, für die jeweils ein lokales Zähl-Maximum (cMj) oberhalb eines Mindest-Zähl-Schwellwertes vorliegt.A set of line objects ( 430 ) for which a local maximum count ( cMj ) above a minimum count threshold.

Die Ermittlung der lokalen Zähl-Maxima (cMj) in der dreidimensionalen Funktion für das Zähl-Ergebnis (c[Ai,Di]) wird bevorzugt durch Zwischenschritte vereinfacht. Die Vereinfachung ermöglicht eine recheneffiziente Lösung des Problems unter Ausnutzung der erwartbaren Umgebungsbedingungen. Die Vereinfachung kann durch wiederholte Betrachtung der Zähl-Ergebnisse in jeweils zweidimensionalen Verteilungen, insbesondere Vektoren, erfolgen.The determination of the local count maxima ( cMj ) in the three-dimensional function for the counting result (c [Ai, Di]) is preferably simplified by intermediate steps. The simplification enables a computationally efficient solution to the problem using the expected environmental conditions. The simplification can be done by repeatedly looking at the counting results in two-dimensional distributions, in particular vectors.

Bevorzugt werden die Zähl-Ergebnisse in einem ersten Schritt für mehrere Zählstreifen mit jeweils einen Richtungswinkel (Ai) und einem Querabstand (Di) ermittelt. Die Zähl-Ergebnisse sind in einem dreidimensionalen Histogramm abbildbar. Die diskret verteilten Zählergebnisse (c[Ai,Di]) sind insbesondere als eine Mehrzahl von Vektoren c_Di[Ai] für jeweils einen vorbestimmten Querabstand [Di] darstellbar.In a first step, the counting results are preferably determined for a plurality of counting strips, each with a direction angle (Ai) and a transverse distance (Di). The counting results can be displayed in a three-dimensional histogram. The discretely distributed count results (c [Ai, Di]) can be represented in particular as a plurality of vectors c_Di [Ai] for a predetermined transverse distance [Di] in each case.

In einem zweiten Schritt wird in mindestens einem, bevorzugt jedem, Vektor c_Di[Ai] ein Maximum der Zählergebnisse cmax_Di[Amj] zu mindestens einem Querabstand Di ermittelt. Es wird außerdem der Richtungswinkel [Amj] des Zähler-Maximums cmax_Di[Amj] ermittelt und gespeichert. Die Zähler-Maxima cmax_Di der Vektoren für jeweils einen Querabstand (Di) sind als Zwischenergebnis speicherbar.In a second step, a maximum of the count results is obtained in at least one, preferably each, vector c_Di [Ai] cmax_Di [Amj] determined at least one transverse distance Di. The direction angle [ Amj ] of the counter maximum cmax_Di [Amj] determined and saved. The counter maxima cmax_Di of the vectors for each transverse distance (Di) can be stored as an intermediate result.

In einem dritten Schritt werden die Zwischenergebnisse aus Zähler-Maxima als ein Vektor für eine Vielzahl von Querabständen (Di) betrachtet. Innerhalb dieses Vektors werden lokale Maxima der Zählerergebnisse und die dazugehörigen Querabstände (Dmj) ermittelt. Zu jedem lokalen Maximum cmax_Dmj[Amj] ist der zugehörige Richtungswinkel (Amj) aus einem vorangegangenen Schritt bereits bekannt und insbesondere abrufbar.In a third step, the intermediate results from counter maxima are considered as a vector for a large number of transverse distances (Di). Within this vector, local maxima of the counter results and the associated cross distances ( Dmj ) determined. For every local maximum cmax_Dmj [ Amj ] is the associated directional angle ( Amj ) is already known from a previous step and in particular can be called up.

Durch dieses mehrstufige Verfahren kann die Ermittlung der Querabstände (Dmj) und der Richtungswinkel (Amj) zu lokalen Maxima der Zähl-Ergebnisse (cMj) innerhalb zweidimensionaler Verteilungen durchgeführt werden.This multi-stage procedure enables the determination of the transverse distances ( Dmj ) and the direction angle ( Amj ) to local maxima of the counting results ( cMj ) are carried out within two-dimensional distributions.

Durch die zu erwartende Ausrichtung von Linien auf einem Parkplatz können die theoretisch auftretenden Doppeldeutigkeiten bei einer stufenweisen Ermittlung lokaler Maxima in Kauf genommen werden.Due to the expected alignment of lines in a parking lot, the theoretically occurring ambiguities can be accepted in a step-by-step determination of local maxima.

8 zeigt ein erzeugtes Linien-Objekt (430) in einem Bewegungsraum-Koordinatensystem (400). Um das Linien-Objekt (430) liegt eine Mehrzahl an Kanten-Punkten (410) verteilt. Zur Bestimmung eines Anfangs- und/oder Endpunktes eines Linien-Objekts (430) ist es vorteilhaft, ein Clustering von Kanten-Punkten (410) in der Nähe des Linien-Objekts (430) durchzuführen. Im Bereich eines Clusters (441) aus Kanten-Punkten (410) kann ein Abschnitt des Linien-Objekts (430) als Kontur-Linien-Objekt (440) bestimmt werden. 8th shows a created line object ( 430 ) in a movement space coordinate system ( 400 ). To the line object ( 430 ) there are a number of edge points ( 410 ) distributed. To determine a start and / or end point of a line object ( 430 ) it is advantageous to cluster edge points ( 410 ) near the line object ( 430 ) to carry out. In the area of a cluster ( 441 ) from edge points ( 410 ) a section of the line object ( 430 ) as a contour line object ( 440 ) can be determined.

In dieser bevorzugten Ausführungsform werden sowohl ein Anfangs- als auch Endpunkt eines Kontur-Linien-Objekts (440) definiert. Bevorzugt wird ein Segment eines Linien-Objekts (430) als Kontur-Linien-Objekt (440) definiert. Ein Anfangs- oder Endpunkt eines Kontur-Linien-Objekts (440) kann in der Nähe eines Cluster-Extrempunktes (410e) bestimmt werden. Ein Cluster-Extrempunkt (410e) liegt innerhalb eines Clusters (441) an einer Extremstelle in Richtung des Linien-Objekts (430). Welche der Kanten-Punkte (410) innerhalb eines Clusters (441) einen Cluster-Extrempunkt (410e) bilden, kann insbesondere durch Vergleich der Entfernungen der jeweiligen Kanten-Punkte (410) zu einem Bezugspunkt auf dem Linien-Objekt (430) berechnet werden.In this preferred embodiment, both a start and an end point of a contour line object ( 440 ) Are defined. A segment of a line object ( 430 ) as a contour line object ( 440 ) Are defined. A start or end point of a contour line object ( 440 ) can be near a cluster extreme point ( 410e ) can be determined. A cluster extreme point ( 410e ) lies within a cluster ( 441 ) at an extreme point in the direction of the line object ( 430 ). Which of the edge points ( 410 ) within a cluster ( 441 ) a cluster extreme point ( 410e ), in particular by comparing the distances of the respective edge points ( 410 ) to a reference point on the line object ( 430 ) be calculated.

Zur Bestimmung des Anfangs- oder Endpunkts eines Kontur-Linien-Objekts (440) kann insbesondere ein Lot von einem Cluster-Extrempunkt (410e) auf das zugehörige Linien-Objekt (430) gefällt werden.To determine the start or end point of a contour line object ( 440 ) in particular a plumb line from a cluster extreme point ( 410e ) to the associated line object ( 430 ) be felled.

9 zeigt zwei Mengen an bezogenen Kontur-Linien-Objekten (440a,440b). Es ist besonders vorteilhaft, Kontur-Linien-Objekte (440) in Abhängigkeit des zugrundeliegenden Typs der erfassten Kanten-Merkmale (310a,310b) bzw. Kanten-Punkte (410) in einer Gruppe eines ersten Typs oder einer Gruppe eines zweiten Typs zu speichern. Innerhalb einer Gruppe werden Kontur-Linien-Objekten (440) desselben Typs gespeichert. 9 shows two sets of related contour line objects ( 440a , 440b ). It is particularly advantageous to use contour line objects ( 440 ) depending on the underlying type of the recorded Edge features ( 310a , 310b ) or edge points ( 410 ) in a group of a first type or a group of a second type. Contour line objects ( 440 ) of the same type.

Vorteilhafterweise werden bei der Suche nach Markierungsstreifen nur Kontur-Linien-Objekte (440a,440b) unterschiedlichen Typs paarweise betrachtet. So sind beispielsweise in der ersten Kontur-Linien-Menge nur „linke“ Kontur-Linien-Objekte (440a) aus Sicht des Fahrzeugs (1) gespeichert. In der zweiten Kontur-Linien-Menge sind wiederum potentielle Gegen-Kontur-Linien-Objekte (440b) gespeichert, die erwartungsgemäß auf der rechten Seite eines Markierungsstreifens liegen.Advantageously, only contour line objects ( 440a , 440b ) of different types viewed in pairs. For example, in the first set of contour lines, only "left" contour line objects ( 440a ) from the perspective of the vehicle ( 1 ) saved. The second set of contour lines again contains potential counter-contour line objects ( 440b ), which are expected to be on the right side of a marker strip.

10 zeigt verschiedene Kontur-Linien-Objekte (440,440a,440b). Ein Kontur-Linien-Objekt (440a) wird jeweils mit einem Gegen-Kontur-Linien-Objekt (440b) verglichen. 10 zeigt insbesondere verschiedene mögliche Lagen eines Kontur-Linien-Objekts (440a), insbesondere im Vergleich zu einem Gegen-Kontur-Linien-Objekt (440b). In der Figur werden verschiedene mögliche Lagen der Kontur-Linien-Objekte (440a,440b) zueinander dargestellt. 10th shows various contour line objects ( 440 , 440a, 440b ). A contour line object ( 440a ) each with a counter-contour line object ( 440b ) compared. 10th shows in particular different possible positions of a contour line object ( 440a ), especially in comparison to a counter-contour line object ( 440b ). Various possible positions of the contour line objects ( 440a , 440b ) to each other.

Innerhalb eines Vergleichspaares (440a,440b) wird ein Übereinstimmungsmaß (XS) bestimmt. Das Übereinstimmungsmaß (XS) beschreibt wie stark die beiden Kontur-Linien-Objekte (440a,440b) hinsichtlich Parallelität, Abstand und/oder gegenseitiger Deckung zueinander passen. Ein hohes Übereinstimmungsmaß (XS) steht für eine niedrige Winkelabweichung und/oder einen geringen Versatz und/oder erwartungsgemäßen Abstand zwischen dem Kontur-Linien-Objekt (440a) und dem zugehörigen Gegen-Kontur-Linien-Objekt (440b) eines Vergleichs-Paares. Das Übereinstimmungsmaß (XS) kann insbesondere einen Quotienten aus zwei Flächen umfassen. Alternativ oder zusätzlich kann das Übereinstimmungsmaß (XS) einen Wert für eine Annäherung oder Übereinstimmung mit einer Idealfläche oder einem Idealabstand umfassen.Within a comparison pair ( 440a , 440b ) is a measure of conformity ( XS ) certainly. The measure of conformity ( XS ) describes how strong the two contour line objects ( 440a , 440b ) match each other in terms of parallelism, distance and / or mutual coverage. A high degree of conformity ( XS ) stands for a low angular deviation and / or a small offset and / or the expected distance between the contour line object ( 440a ) and the associated counter-contour line object ( 440b ) of a comparison pair. The measure of conformity ( XS ) can in particular comprise a quotient of two areas. Alternatively or additionally, the measure of conformity ( XS ) include a value for approximation or agreement with an ideal area or an ideal distance.

Für einen korrekt erfassten Markierungsstreifen einer Parkflächenmarkierung (201) ist zu erwarten, dass zwei Kontur-Linien-Objekte (440a,440b) im Wesentlichen parallel zueinander in einem bestimmten Abstandsintervall liegen. Außerdem liegen die Anfangs- und Endpunkte der beiden Kontur-Linien-Objekte (440a,440b) erwartungsgemäß auf einer Linie quer zum jeweils anderen Anfangs- oder Endpunkt. Es ist daher vorteilhaft ein Übereinstimmungsmaß (XS) zu berechnen, das die Parallelität und/oder Deckung und/oder Abstand zwischen einem Kontur-Linien-Objekt (440a) und einem Gegen-Kontur-Linien-Objekt (440b) berücksichtigt. In einer alternativen Ausführungsform kann auch eine Auswahl oder eine bestimmte Kombination der vorgenannten Kriterien zur Bestimmung des Übereinstimmungsmaßes (XS) herangezogen werden.Wenn ein Übereinstimmungsmaß innerhalb eines Vergleichs-Paares oberhalb eines Übereinstimmungs-Schwellenwertes liegt, wird ein Streifen-Objekt (450) auf Basis des zugehörigen Kontur-Linien-Objekts (440a) und des Gegen-Kontur-Linien-Objekts (440b) definiert. Ein Streifen-Objekt (450) kann zusätzliche Kontur-Linien zwischen den Anfangs- und/oder Endpunkten der enthaltenen Kontur-Linien-Objekte (440a,440b) umfassen. Das Streifen-Objekt (450) kann eine eigene Datenstruktur bilden oder aus einer Kombination der zugehörigen Kontur-Linien-Objekte bestehen. Das Streifen-Objekt (450) kann außerdem weitere Informationen wie beispielsweise eine Breite oder eine gemittelte Position umfassen. Vorteilhafterweise weist ein Streifen-Objekt eine Position und eine Ausrichtung im Bewegungsraum-Koordinatensystem (400) auf.For a correctly recorded marking strip of a parking area marking ( 201 ) it is to be expected that two contour line objects ( 440a , 440b ) are essentially parallel to each other in a certain distance interval. In addition, the start and end points of the two contour line objects are ( 440a , 440b ) as expected on a line perpendicular to the other start or end point. It is therefore advantageous to have a measure of conformity ( XS ) to calculate the parallelism and / or coverage and / or distance between a contour line object ( 440a ) and a counter-contour line object ( 440b ) considered. In an alternative embodiment, a selection or a specific combination of the abovementioned criteria for determining the measure of conformity ( XS If a match measure within a comparison pair is above a match threshold, a streak object ( 450 ) based on the associated contour line object ( 440a ) and the counter-contour line object ( 440b ) Are defined. A stripe object ( 450 ) additional contour lines between the start and / or end points of the contained contour line objects ( 440a , 440b ) include. The streak object ( 450 ) can form its own data structure or consist of a combination of the associated contour line objects. The streak object ( 450 ) may also include other information such as a latitude or an averaged position. A strip object advantageously has a position and an orientation in the movement space coordinate system ( 400 ) on.

Die Bestimmung eines Übereinstimmungsmaßes (XS) ist ein besonders effizientes Verfahren zur Bestimmung zugehöriger Kontur-Linien-Objekte aus einer Mehrzahl oder Vielzahl von erfassten Kontur-Linien-Objekten.The determination of a measure of conformity ( XS ) is a particularly efficient method for determining associated contour line objects from a plurality or a plurality of detected contour line objects.

11 zeigt eine besonders vorteilhafte Ausführungsform zur Bestimmung eines Übereinstimmungsmaßes (XS). Das Verfahren umfasst mehrere Schritte. In einem ersten Schritt wird eine Deckungs-Fläche (Sa) in Quer-Richtung des Kontur-Linien-Objekts (440a) gebildet. Die Deckungs-Fläche (Sa) erstreckt sich bis zum Gegen-Kontur-Linien-Objekt (440b). Ggf. wird eines der Kontur-Linien-Objekte (440a,440b) gedanklich verlängert um einen Schnittpunkt mit einer Linie in Quer-Richtung des gegenüberliegenden Kontur-Linien-Objekts (440a,44b) zu bestimmen. 11 shows a particularly advantageous embodiment for determining a measure of conformity ( XS ). The process consists of several steps. In a first step, a cover area ( Sat ) in the transverse direction of the contour line object ( 440a ) educated. The coverage area ( Sat ) extends to the opposite contour line object ( 440b ). Possibly. one of the contour line objects ( 440a , 440b ) mentally extended by an intersection with a line in the transverse direction of the opposite contour line object ( 440a , 44b).

Die Deckungs-Fläche (Sa) bildet bevorzugt ein Viereck. Sie wird ausgehend von den Anfangs- und Endpunkten eines Kontur-Linien-Objekts (440a) gebildet. Bevorzugt wird die Deckungs-Fläche (Sa) auf zwei gegenüberliegenden Seiten durch jeweils eine Linie in einem rechten Winkel zum Kontur-Linien-Objekt (440a) begrenzt. Auf den übrigen Seiten wird die Deckungs-Fläche (Sa) von dem (ggfs. verlängerten) Kontur-Linien-Objekt (440a) und dem Gegen-Kontur-Linien-Objekt (440b) begrenzt.The coverage area ( Sat ) preferably forms a square. It is based on the start and end points of a contour line object ( 440a ) educated. The coverage area ( Sat ) on two opposite sides by a line at a right angle to the contour line object ( 440a ) limited. The coverage area ( Sat ) of the (possibly extended) contour line object ( 440a ) and the counter-contour line object ( 440b ) limited.

In einem weiteren Schritt wird eine Gegen-Deckungs-Fläche (Sb) in Quer-Richtung des Gegen-Kontur-Linien-Objekts (440b) bestimmt. Die Bestimmung der Gegen-Deckungs-Fläche (Sb) findet analog zur Bestimmung der Deckungs-Fläche (Sa) statt, jedoch ausgehend vom Gegen-Kontur-Linien-Objekt (440b).In a further step, a counter-cover area ( Sb ) in the transverse direction of the counter-contour line object ( 440b ) certainly. The determination of the counter-cover area ( Sb ) takes place analogously to the determination of the coverage area ( Sat ) instead, but starting from the counter-contour line object ( 440b ).

In einem weiteren Schritt wird eine Schnitt-Fläche (IS) zwischen der Deckungsfläche (Sa) und der Gegen-Deckungs-Fläche (Sb) bestimmt. Die Deckungs-Fläche (Sa) und die Gegen-Deckungs-Fläche (Sb) überschneiden sich in der Regel teilweise.In a further step, a cut surface ( IS ) between the cover area ( Sat ) and the counter-cover area ( Sb ) certainly. The Coverage area ( Sat ) and the counter-cover area ( Sb ) usually overlap partially.

In einem weiteren Schritt wird eine Vereinigungsfläche (US) zwischen der Deckungsfläche (Sa) und der Gegen-Deckungs-Fläche (Sb) bestimmt. Die Vereinigungsfläche (US) umfasst die gesamte Fläche der Deckungsfläche (Sa) plus die Gegen-Deckungs-Fläche (Sb) ohne Doppeltzählung der Überschneidungsbereiche. Die Vereinigungsfläche wird durch Vereinigung zweier Flächen gebildet, ähnlich wie es bei Mengen üblich ist.In a further step, a union surface ( US ) between the cover area ( Sat ) and the counter-cover area ( Sb ) certainly. The union area ( US ) covers the entire area of the cover area ( Sat ) plus the counter-cover area ( Sb ) without double counting of the overlap areas. The merging surface is formed by merging two surfaces, similar to what is common with sets.

Der Quotient aus der Schnittfläche (IS) und der Vereinigungsfläche (US) bildet ein geeignetes Übereinstimmungsmaß (XS) („Schnittfläche durch Vereinigungsfläche“). Vorteilhafterweise ist dieses Übereinstimmungsmaß ein dimensionsloser Wert zwischen 0 und 1, wobei 0 eine sehr schlechte Übereinstimmung und 1 eine sehr gute Übereinstimmung darstellt.The quotient from the cut surface ( IS ) and the union area ( US ) forms a suitable measure of conformity ( XS ) ("Cutting surface through union surface"). This measure of conformity is advantageously a dimensionless value between 0 and 1, with 0 representing a very poor match and 1 representing a very good match.

Zusätzlich kann auch der Abstand zwischen den Kontur-Linien-Objekten (440a, 440b) in das Übereinstimmungsmaß (XS) einfließen.In addition, the distance between the contour line objects ( 440a , 440b ) in the measure of conformity ( XS ) flow.

Für das Übereinstimmungsmaß (XS) wird bevorzugt ein Übereinstimmungs-Schwellenwert zwischen 0,5 und 1 festgelegt. Ein Übereinstimmungsmaß (XS) oberhalb des Übereinstimmungs-Schwellenwertes lässt auf einen erkannten Streifen aus den verglichenen Kontur-Linien-Objekten schließen.For the measure of conformity ( XS ) a match threshold between 0.5 and 1 is preferably set. A measure of conformity ( XS ) above the match threshold suggests a recognized stripe from the compared contour line objects.

Die 12 und 13 zeigen eine Implementierung eines Parkflächenerkennungsverfahrens. Durch Anwendung vorbestimmter Abstands-Muster können Parkflächen (2) zwischen erfassten Parkflächenmarkierungen (201) erkannt werden. Ein Streifen-Objekt (450) repräsentiert eine erfasste Parkflächenmarkierung (201). Zur Erfassung einer Parkfläche (2) werden Parkflächen-Objekte (500) besimmt bzw. erzeugt.The 12th and 13 show an implementation of a parking area detection method. By using predetermined spacing patterns, parking areas ( 2nd ) between detected parking area markings ( 201 ) be recognized. A stripe object ( 450 ) represents a detected parking area marking ( 201 ). To capture a parking area ( 2nd ) become parking space objects ( 500 ) determined or generated.

12 zeigt die Anwendung zweier Abstands-Muster mit Muster-Linien (PL1, PL2). Mehrere parallel versetzte Muster-Linien (PLi) bilden ein Abstandsmuster (Pi). In dem dargestellten Verfahren werden zwei vorbestimmte Abstands-Muster angewendet. Bevorzugt wird eine Vielzahl von Abstands-Mustern (Pi) mit jeweils einem unterschiedlichen Muster-Versatz (POi) angewendet. 12th shows the use of two spacing patterns with pattern lines ( PL1 , PL2 ). Several pattern lines offset in parallel ( PLi ) form a spacing pattern ( pi ). In the method shown, two predetermined spacing patterns are used. A variety of spacing patterns ( pi ) each with a different pattern offset ( POi ) applied.

Ein erstes Abstands-Muster (P1) weist einen wiederkehrenden Muster-Versatz (POI) zwischen parallel versetzten Muster-Linien (PL1) auf. Ein zweites Abstands-Muster weist einen zweiten vorbestimmten Muster-Versatz (PO2) zwischen parallel versetzten Muster-Linien (PL2) auf. Die vorbestimmten Abstands-Muster werden auf eine Menge bezogener Streifen-Objekte (450) angewendet. Ein Streifen-Objekt (450) weist eine Position und eine Ausrichtung im Bewegungsraum-Koordinatensystem (400) auf. Die Position eines Streifen-Objekts (450,450r) kann mit der Lage einer Muster-Linie (PL1, P12) verglichen werden. Zur Bestimmung eines Passungssatzes (455) aus einander zugehörigen Streifen-Objekten (450) wird vorerst ein Bezugs-Streifen-Objekt (450r) aus einer Menge von bezogenen Streifen-Objekten (450) bestimmt. Dieser Schritt kann mehrmals für verschiedene Bezugs-Streifen-Objekte durchgeführt werden. Die Anwendung mehrerer vorbestimmter Abstands-Muster wird jeweils für ein Bezugs-Streifen-Objekt (450r) durchgeführt.A first distance pattern ( P1 ) shows a recurring pattern offset (POI) between parallel offset pattern lines ( PL1 ) on. A second spacing pattern has a second predetermined pattern offset ( PO2 ) between parallel staggered pattern lines ( PL2 ) on. The predetermined distance patterns are based on a set of related strip objects ( 450 ) applied. A stripe object ( 450 ) has a position and an orientation in the movement space coordinate system ( 400 ) on. The position of a strip object ( 450 , 450r ) can with the position of a pattern line ( PL1 , P12 ) are compared. To determine a fit rate ( 455 ) from related strip objects ( 450 ) will initially become a reference strip object ( 450r ) from a set of related strip objects ( 450 ) certainly. This step can be carried out several times for different reference strip objects. The application of several predetermined distance patterns is in each case for a reference strip object ( 450r ) carried out.

Zu einem Bezugs-Streifen-Objekt (450r) können durch die Anwendung von mehreren vorbestimmten Abstands-Mustern andere Streifen-Objekte (450) bestimmt werden, die in Kombination mit dem Bezugs-Streifen-Objekt (450r) ein erwartungsgemäßes Muster bilden. Die vorbestimmten Abstands-Muster weisen jeweils einen Muster-Versatz (POi) auf, der innerhalb eines zu erwartenden Intervalls gewöhnlicher Parkflächenbreiten liegt. Bevorzugt werden Abstands-Muster mit einem Muster-Versatz in diskreten Schritten von beispielsweise 5 cm in einem Intervall von 2,0 bis 2,5 m verwendet.To a reference strip object ( 450r ) by using several predetermined spacing patterns, other stripe objects ( 450 ) that are determined in combination with the reference strip object ( 450r ) form an expected pattern. The predetermined distance patterns each have a pattern offset ( POi ) that lies within an expected interval of normal parking area widths. Distance patterns with a pattern offset in discrete steps of, for example, 5 cm in an interval of 2.0 to 2.5 m are preferably used.

Unter den verschiedenen angewendeten Abstands-Mustern wird ein Abstands-Muster (Pi) mit bester Passung zwischen den Streifen-Objekten (450) und den Muster-Linien (PLi) des Abstands-Musters (Pi) bestimmt. Die Passung zwischen einem Streifen-Objekt (450) und einer Muster-Linie (PLi) wird durch Vergleich der jeweiligen Lage hinsichtlich Abstand und/oder Parallelität ermittelt.Among the different spacing patterns used, a spacing pattern ( pi ) with the best fit between the strip objects ( 450 ) and the pattern lines ( PLi ) of the distance pattern ( pi ) certainly. The fit between a strip object ( 450 ) and a pattern line ( PLi ) is determined by comparing the respective position with regard to distance and / or parallelism.

Bevorzugt werden die Abstands-Muster (Pi) für mehrere, insbesondere alle erfassten, Streifen-Objekte (450) als Bezugs-Streifen-Objekt (450r) ermittelt. Die Passung der erfassten Streifen-Objekte (450) kann sich hinsichtlich mehrerer Abstands-Muster (Pi) mit demselben Muster-Versatz (POi) bezügliche unterschiedlicher Bezugs-Streifen-Objekte (450r) unterscheiden. Die Ermittlung der Passung erfolgt bevorzugt wiederholt für verschiedene Bezugs-Streifen-Objekte (450r). Ein Abstandsmuster bezieht sich auf ein bestimmtes Bezugs-Streifen-Objekt.The spacing patterns ( pi ) for several, in particular all detected, strip objects ( 450 ) as a reference strip object ( 450r ) determined. The fit of the streak objects ( 450 ) can differ with regard to several distance patterns ( pi ) with the same pattern offset ( POi ) related different reference strip objects ( 450r ) differentiate. The fit is preferably determined repeatedly for different reference strip objects ( 450r ). A spacing pattern refers to a particular reference stripe object.

Es können insbesondere mehrere Parkflächen-Gruppen mit mehreren optimalen Abstands-Mustern in derselben Umgebungs-Szene ermittelt werden.In particular, several parking area groups with several optimal distance patterns can be determined in the same surrounding scene.

Das (Teil-)Verfahren zur Bestimmung von Mustern wird für mehrere Bezugs-Streifen-Objekte wiederholt. Das Bezugs-Streifen-Objekt mit der besten Passung, insbesondere mit einem minimalen Ergebnis einer Fehlerfunktion, wird für die weitere Verarbeitung ausgewählt.The (partial) procedure for determining patterns is repeated for several reference strip objects. The reference strip object with the best fit, in particular with a minimal result of an error function, is selected for further processing.

In einer bevorzugten Ausführungsform wird eine Fehlerfunktion verwendet um die Passung zwischen einem Abstands-Muster und einer Mehrzahl an Streifen-Objekten (450r,450) zu bestimmen. Ein optimales Abstands-Muster (Pi) kann insbesondere durch ein Optimierungsverfahren mittels Minimierung der Fehlerfunktion ermittelt werden. Somit kann ein optimaler Muster-Versatz (POi) für die bekannten Streifen-Objekte (450) bestimmt werden. In einem zweiten Schritt können die Streifen-Objekte (450) bestimmt werden, die mit hoher Wahrscheinlichkeit zu einer Gruppe von Parkflächen mit dem zuvor bestimmten optimalen Muster-Versatz (POi) gehören. Aus Streifen-Objekten (450), die innerhalb eines Toleranz-Bereichs (T) um eine Muster-Linie (PLi) des optimalen Abstands-Musters (Pi) liegen, wird ein Passungs-Satz (455) gebildet. Ein Passungs-Satz (455) ist eine Auswahl von Streifen-Objekten (450) aus einer Menge an bezogenen Streifen-Objekten (450). Ein Streifen-Objekt (450r) bildet das Bezugs-Streifen-Objekt eines Passungs-Satzes (455). In a preferred embodiment, an error function is used to determine the fit between a spacing pattern and a plurality of stripe objects ( 450r , 450 ) to determine. An optimal spacing pattern ( pi ) can be determined in particular by an optimization process by minimizing the error function. Thus an optimal pattern offset ( POi ) for the well-known stripe objects ( 450 ) can be determined. In a second step, the stripe objects ( 450 ) are determined, which are highly likely to form a group of parking areas with the previously determined optimal pattern offset ( POi ) belong. From stripe objects ( 450 ) that are within a tolerance range ( T ) around a pattern line ( PLi ) of the optimal distance pattern ( pi ), a fit sentence ( 455 ) educated. A fit set ( 455 ) is a selection of stripe objects ( 450 ) from a set of related strip objects ( 450 ). A stripe object ( 450r ) forms the reference strip object of a fit set ( 455 ).

Für einen Passungs-Satz (455) wird eine Gruppe von Parkflächen-Objekten (500) erzeugt. Es wird jeweils ein Parkflächen-Objekt zwischen zwei benachbarten Streifen-Objekten (450) eines Passungs-Satzes (455) erzeugt. Die Parkflächen-Objekte (500) liegen zwischen den Streifen-Objekten (450,450r) eines Passungs-Satzes (455). Die Parkflächen-Objekte (500) bilden bevorzugt eine zusammenhängende Reihe.For a fit set ( 455 ) becomes a group of parking lot objects ( 500 ) generated. One parking space object is placed between two neighboring strip objects ( 450 ) of a fit set ( 455 ) generated. The parking lot objects ( 500 ) lie between the strip objects ( 450 , 450r ) of a fit set ( 455 ). The parking lot objects ( 500 ) preferably form a coherent series.

Die Parkflächen-Objekte (500) eines Passungssatzes (455) können untereinander dieselbe oder eine ähnliche Form aufweisen. Bevorzugt bildet ein Parkflächen-Objekt (500) eine eigenständige Datenstruktur auf Basis der die Parkfläche begrenzenden Streifen-Objekte (450). Ein Parkflächen-Objekt kann insbesondere eine Position und/oder eine Lage im Bewegungsraum-Koordinatensystem (400) aufweisen.The parking lot objects ( 500 ) of a fit sentence ( 455 ) can have the same or a similar shape to one another. A parking space object ( 500 ) an independent data structure based on the stripe objects that delimit the parking area ( 450 ). A parking area object can in particular have a position and / or a position in the movement space coordinate system ( 400 ) exhibit.

In einer bevorzugten Ausführungsform bilden Parkflächen-Objekte (500) eine zusammenhängende Gruppe. Innerhalb einer zusammenhängenden Gruppe können ein oder mehrere Parkflächen-Objekte (500) hinsichtlich gemeinsamer Flucht und/oder abstandsfreier Aneinanderreihung und/oder Parallelität der Parkflächen nachjustiert werden. Parkflächen auf größeren Parkplätzen sind erwartungsgemäß parallel zueinander ausgerichtet und bilden eine gemeinsame Flucht, d.h. die Anfangs- oder Endpunkte der Markierungsstreifen liegen im Wesentlichen auf einer gemeinsamen Linie. In der Regel grenzen Parkflächen in einer Gruppe eines größeren Parkplatzes direkt aneinander an. Insbesondere teilen zwei Parkflächen (2) in der Regel eine gemeinsame Parkflächenmarkierung (201) zwischen den beiden Parkflächen. Diese a priori Informationen werden vorteilhafter Weise zur Nachjustierung der ggf. nicht exakt gemessenen Parkflächen-Objekte (500) genutzt.In a preferred embodiment, parking area objects ( 500 ) a coherent group. One or more parking space objects ( 500 ) are readjusted with regard to joint flight and / or a string-free alignment and / or parallelism of the parking areas. As expected, parking spaces in larger parking spaces are aligned parallel to one another and form a common escape, ie the start or end points of the marking strips lie essentially on a common line. As a rule, parking areas in a group of a larger parking lot directly adjoin one another. In particular, two parking spaces ( 2nd ) usually a common parking area marker ( 201 ) between the two parking spaces. This a priori information is advantageously used for the readjustment of the parking area objects (which may not be measured exactly) ( 500 ) utilized.

AusführungsformenEmbodiments

In einer bevorzugten Ausführungsform wird das computerbasierte Objekterkennungsverfahren zumindest teilweise wiederholt für jede neue Umgebungs-Bildaufnahme (300) ausgeführt. Die einzelnen Teilaspekte bzw. Teilverfahren bilden verschiedene Phasen einer Messung von optisch wahrnehmbaren linearen Grenzstrukturen (202). Das Objekterkennungsverfahren oder zumindest eines der Teilverfahren werden bevorzugt mit einer Taktung von mehreren Wiederholungen pro Sekunde ausgeführt. Insbesondere werden Umgebungs-Bildaufnahmen (300) mit einer vorbestimmten Taktung bezogen. Vorteilhaft sind Taktzeiten von 10 bis 150 Millisekunden. Bevorzugt werden Umgebungs-Bildaufnahmen mit einer Rate von ca. 15 Bildern pro Sekunde bezogen.In a preferred embodiment, the computer-based object recognition method is repeated at least partially for each new surrounding image recording ( 300 ) executed. The individual sub-aspects or sub-processes form different phases of a measurement of optically perceptible linear boundary structures ( 202 ). The object recognition method or at least one of the sub-methods are preferably carried out at a rate of several repetitions per second. In particular, environmental images ( 300 ) with a predetermined timing. Cycle times of 10 to 150 milliseconds are advantageous. Ambient image recordings are preferably obtained at a rate of approximately 15 images per second.

In einer bevorzugten Ausführungsform werden Grenzstrukturen (202) und damit verbundene Objekte in der Umgebung des Fahrzeugs wiederholt erfasst. Die Objekterfassung beinhaltet die Messung einer oder mehrerer Eigenschaften eines Objekts, insbesondere eine Koordinate oder eine Position. Beispielsweise wird durch die Bestimmung eines Kanten-Punkts (410) eine Messung durchgeführt.In a preferred embodiment, boundary structures ( 202 ) and related objects in the area surrounding the vehicle are repeatedly recorded. Object detection includes the measurement of one or more properties of an object, in particular a coordinate or a position. For example, by determining an edge point ( 410 ) carried out a measurement.

Bevorzugt werden die auf Basis der Messung erzeugten virtuellen Objekte, insbesondere Kontur-Linien-Objekte (440), Streifen-Objekte (450) und/oder Parkflächen-Objekte (500), zusätzlich getrackt. Beim Objekt-Tracking werden laufend neue Messungen mit zuvor erfassten Messungen kombiniert. Eine Messung basiert jeweils auf einer oder mehreren Umgebungs-Bildaufnahmen (300) zu einem bestimmten Zeitpunkt. Informationen von Messungen zu früheren Zeitpunkten und Modellinformationen können mit jüngeren Messungen mittels eines Schätzfilters zusammengeführt werden.The virtual objects generated on the basis of the measurement, in particular contour-line objects ( 440 ), Stripe objects ( 450 ) and / or parking lot objects ( 500 ), additionally tracked. With object tracking, new measurements are continuously combined with previously recorded measurements. A measurement is based on one or more surrounding images ( 300 ) at a certain time. Information from measurements at earlier times and model information can be combined with more recent measurements using an estimation filter.

Bevorzugt wird für das Tracking ein Kalman-Filter eingesetzt. In einem Prädiktionsschritt werden Positionsmessungen erfasster Objekte aus älteren Umgebungs-Bildaufnahmen (300) modelbasiert in einen jüngeren Zustand zum Zeitpunkt einer jüngeren Umgebungs-Bildaufnahme (300') prädiziert. Für die Prädiktion kann insbesondere ein Bewegungsmodel des Fahrzeugs (1) in Kombination mit einer bezogenen Eigenbewegung des Fahrzeugs (1) und/oder Odometriedaten aus einer Verarbeitung der Umgebungs-Bildaufnahmen (300,300') verwendet werden. In einem Innovationsschritt werden Informationen aus neuen Messungen in einer jüngeren Umgebungs-Bildaufnahme (300') mit den älteren Messungen kombiniert. Die Zuordnung einer Messung eines jüngeren Objekts zu einem älteren Objekt, insbesondere eines bereits erfassten Kontur-Linien-Objekts oder eines Streifen-Objekts, kann über ein Nähe-Kriterium, insbesondere einen Querabstands oder eine Winkeldifferenz zwischen zwei Objekten, durchgeführt werden.A Kalman filter is preferably used for the tracking. In a prediction step, position measurements of detected objects from older surrounding images ( 300 ) model-based in a younger state at the time of a younger surrounding image recording ( 300 ' ) predicted. For the prediction, a movement model of the vehicle ( 1 ) in combination with a related own movement of the vehicle ( 1 ) and / or odometry data from processing the surrounding image recordings ( 300 , 300 ' ) be used. In an innovation step, information from new measurements in a recent environmental image ( 300 ' ) combined with the older measurements. The assignment of a measurement of a younger object to an older object, in particular an already recorded contour line Object or a stripe object can be carried out using a proximity criterion, in particular a transverse distance or an angle difference between two objects.

Auch wenn keine neuen Messungen eines bereits erfassten Objekts verfügbar sind, da das erfasste Objekt in jüngeren Umgebungs-Bildaufnahmen nicht mehr abgebildet ist oder verdeckt ist, kann ein sogenanntes blindes Tracking mit rein modelbasierter Prädiktion der Position des Objekts durchgeführt werden. Mit der Zeit steigt erwartungsgemäß die Ungenauigkeit einer solchen rein modelbasierten Schätzung. Ungenauigkeiten im Bewegungsmodell oder den bezogenen Bewegungsinformationen zur Eigenbewegung des Fahrzeugs (1) können zu einer steigenden Ungenauigkeit des blinden Trackings führen. Bevorzugt werden die bezogenen Bewegungsinformationen zur Eigenbewegung des Fahrzeugs mit der Verschiebung immer noch sichtbarer Objekte in den Umgebungs-Bildaufnahmen verglichen. Für die Prädiktion eines erfassten Objektes in der Umgebung des Fahrzeugs beim blinden Tracking kann eine angepasste Eigenbewegung des Fahrzeugs verwendet werden. Die angepasste Bewegungsinformation kann das Ergebnis einer Optimierung einer Fehlerfunktion zwischen prädizierten älteren Objektpositionen und neuen jüngeren Messungen desselben Objekts ausgeführt werden.Even if no new measurements of an object that has already been captured are available, since the captured object is no longer shown or covered in recent surrounding image recordings, so-called blind tracking can be carried out with a purely model-based prediction of the position of the object. As expected, the inaccuracy of such a purely model-based estimate increases over time. Inaccuracies in the movement model or the related movement information on the vehicle's own movement ( 1 ) can lead to an increasing inaccuracy of blind tracking. The related movement information relating to the vehicle's own movement is preferably compared with the displacement of objects that are still visible in the surrounding image recordings. An adapted own movement of the vehicle can be used for the prediction of a detected object in the surroundings of the vehicle during blind tracking. The adapted movement information can be the result of an optimization of an error function between predicted older object positions and new, younger measurements of the same object.

In einer weiteren bevorzugten Ausführungsform werden ausschließlich optisch wahrnehmbare Grenzstrukturen (202) innerhalb des Verarbeitungsausschnitts (301) verarbeitet. Alternativ oder zusätzlich können die optisch wahrnehmbaren Grenzstrukturen (202) innerhalb des Verarbeitungsausschnitts (301) präferiert oder bevorzugt verarbeitet werden. Bevorzugt findet die Bestimmung des Verarbeitungsausschnitts (301) innerhalb eines statischen Bildausschnitts („region of interest“) statt. Der Verarbeitungsausschnitt (301) wird bevorzugt für jede Umgebungs-Bildaufnahme (300) dynamisch bestimmt.In a further preferred embodiment, only optically perceptible boundary structures ( 202 ) within the processing section ( 301 ) processed. Alternatively or additionally, the optically perceptible boundary structures ( 202 ) within the processing section ( 301 ) preferred or processed preferentially. The processing section is preferably determined ( 301 ) within a static image section ("region of interest"). The processing section ( 301 ) is preferred for every surrounding image recording ( 300 ) determined dynamically.

Die Verteilung der Abtastsegmente (302) innerhalb einer Umgebungs-Bildaufnahme (300) ist bevorzugt vorbestimmt.The distribution of the scan segments ( 302 ) within a surrounding image recording ( 300 ) is preferably predetermined.

Zur Bestimmung von Kanten-Merkmalen (310) wird bevorzugt ein Sobel-Operator auf eine Umgebungs-Bildaufnahme (300), insbesondere einen statischen Ausschnitt aus der Umgebungs-Bildaufnahme, angewendet. Der Sobel-Operator kann insbesondere in zwei oder mehr unterschiedlichen Richtungen, insbesondere der horizontalen und der vertikalen Bildrichtung, angewendet werden. Das Ergebnis wird bevorzugt in mindestens einem Gradientenbild, bevorzugt in einem horizontalen und einem vertikalen Gradientenbild gespeichert. Eine vertikale Kante in einer Umgebungs-Bildaufnahme ist durch einen horizontalen Gradienten mindestens einer Bildinformation gekennzeichnet. Bevorzugt findet die Suche nach signifikanten Gradienten in einem Gradientenbild zeilenweise statt.To determine edge features ( 310 ) a Sobel operator is preferred for an ambient image recording ( 300 ), in particular a static section from the surrounding image recording. The Sobel operator can be used in particular in two or more different directions, in particular the horizontal and the vertical image direction. The result is preferably stored in at least one gradient image, preferably in a horizontal and a vertical gradient image. A vertical edge in a surrounding image recording is characterized by a horizontal gradient of at least one piece of image information. The search for significant gradients preferably takes place line by line in a gradient image.

In einer bevorzugten Ausführungsform wird eine Umgebungs-Bildaufnahme und/oder ein zugehöriges Gradientenbild zeilenweise von links bzgl. des Bildkoordinatensystems durchsucht. Eine Parkflächenmarkierung ist in der Regel durch einen ersten positiven Gradienten, insbesondere des Grauwerts, und einen in kurzem Abstand folgenden negativen Gradienten innerhalb einer Zeile gekennzeichnet. Zur Bestimmung eines Kanten-Merkmal-Paares (320) wird bevorzugt zuerst ein Kanten-Merkmal mit einem positiven Gradienten und anschließend ein Gegen-Kanten-Merkmal mit negativen Gradienten gesucht.In a preferred embodiment, a surrounding image recording and / or an associated gradient image is searched line by line from the left with respect to the image coordinate system. A parking area marking is generally characterized by a first positive gradient, in particular the gray value, and a negative gradient that follows at a short distance within a line. To determine an edge-feature pair ( 320 ) it is preferred to first search for an edge feature with a positive gradient and then for a counter-edge feature with negative gradient.

Zum Auffinden von Kanten-Punkten (410), die in der Fahrebene (5) des Fahrzeugs (1) liegen, werden bevorzugt Akkumulations-Punkte (420) verwendet. Alternativ oder zusätzlich können auch Kanten-Punkte (410) in einem bestimmten Nahbereich oder einer Raster-Zelle im Bewegungsraum-Koordinatensystem (400) gezählt werden. Bevorzugt werden zwischen aufeinander folgenden Aufnahmezeitpunkten nur Akkumulations-Punkte (420) für die Weiterverarbeitung weitergeführt. Alternativ oder zusätzlich können auch Kanten-Punkte (410) weitergeführt werden.To find edge points ( 410 ) in the driving level ( 5 ) of the vehicle ( 1 ), preference is given to accumulation points ( 420 ) used. Alternatively or additionally, edge points ( 410 ) in a certain close range or a grid cell in the movement space coordinate system ( 400 ) can be counted. Between successive recording times, only accumulation points ( 420 ) for further processing. Alternatively or additionally, edge points ( 410 ) to be continued.

In einer bevorzugten Ausführungsform werden Akkumulations-Punkte (420) mit je einem Akkumulations-Zähler und einer Raum-Position in einem Bewegungsraum-Koordinatensystem (400) definiert. Bevorzugt werden die Akkumulations-Punkte (420) wiederholt für je eine Umgebungs-Bildaufnahme (300) und einen zugehörigen Aufnahmezeitpunkt definiert. Für eine erste Umgebungs-Bildaufnahme (300) wird bevorzugt für jedes oder jedes freigegebene Kanten-Merkmal (310) ein Kanten-Punkt (410) im Bewegungsraum-Koordinatensystem (400) bestimmt. Bevorzugt werden alle Kanten-Punkte (410), die ein Nähe-Kriterium zwischen dem Kanten-Punkt (410) und einem Akkumulations-Punkt (420) erfüllen, diesem Akkumulations-Punkt (420) zugewiesen. Für jeden zugewiesenen Kanten-Punkt (410) wird der Akkumulations-Zähler des Akkumulations-Punkts (420) um einen Schritt erhöht.In a preferred embodiment, accumulation points ( 420 ) each with an accumulation counter and a room position in a movement space coordinate system ( 400 ) Are defined. The accumulation points ( 420 ) repeats for one image of the surroundings ( 300 ) and an associated recording time. For a first picture of the surroundings ( 300 ) is preferred for each or every released edge feature ( 310 ) an edge point ( 410 ) in the movement space coordinate system ( 400 ) certainly. All edge points ( 410 ), which is a proximity criterion between the edge point ( 410 ) and an accumulation point ( 420 ) meet this accumulation point ( 420 ) assigned. For each assigned edge point ( 410 ) the accumulation counter of the accumulation point ( 420 ) increased by one step.

Zur Verarbeitung einer zweiten, jüngeren Umgebungs-Bildaufnahme (300') werden Bewegungsdaten, insbesondere über einen CAN-Bus des Fahrzeugs, bezogen. Die Bewegungsdaten beschreiben die Eigenbewegung des Fahrzeugs (1) zwischen einem ersten Aufnahmezeitpunkt einer älteren Umgebungs-Bildaufnahme (300) und einem zweiten Aufnahmezeitpunkt der jüngeren Umgebungs-Bildaufnahme (300').To process a second, younger surrounding image ( 300 ' ) Movement data are obtained, in particular via a vehicle CAN bus. The movement data describe the vehicle's own movement ( 1 ) between a first recording time of an older surrounding image recording ( 300 ) and a second recording time of the younger surrounding image recording ( 300 ' ).

Die Aktualisierung der Position eines Akkumulations-Punktes (420') findet bevorzugt bei jeder neu bezogenen Umgebungs-Bildaufnahme (300') und bevorzugt für jeden Akkumulations-Punkt statt, dem mindestens ein Kanten-Punkt zugewiesen ist. Die Zuweisung von Kanten-Punkten (410') in einer neuen jüngeren Umgebungs-Bildaufnahme (300') zu einem aktualisierten Akkumulations-Punkt (420') findet ebenfalls bevorzugt für jede bezogene Umgebungs-Bildaufnahme (300') und bevorzugt für jeden Kanten-Punkt (410') statt. Updating the position of an accumulation point ( 420 ' ) takes place preferably with each newly acquired surrounding image recording ( 300 ' ) and preferably for each accumulation point to which at least one edge point is assigned. The assignment of edge points ( 410 ' ) in a new, younger environment image recording ( 300 ' ) to an updated accumulation point ( 420 ' ) is also preferred for each related surrounding image recording ( 300 ' ) and preferred for each edge point ( 410 ' ) instead of.

Es können einzelne Umgebungs-Bildaufnahmen oder Kanten-Merkmale oder Kanten-Punkte bei der Verarbeitung übersprungen werden. Dies kann insbesondere zur Erfüllung von Echtzeitbedingungen vorteilhaft sein.Individual environmental images or edge features or edge points can be skipped during processing. This can be particularly advantageous for fulfilling real-time conditions.

In einer weiteren Ausführungsform wird eine Verfallsrate auf einen Akkumulations-Zähler angewendet. Die Verfallsrate bewirkt, dass der Akkumulations-Zähler eines Akkumulations-Punktes mit der Zeit reduziert wird. Dies ist insbesondere während eines Stillstands des Fahrzeugs vorteilhaft. Während des Stillstands des Fahrzeugs werden laufend neue Umgebungs-Bildaufnahmen bezogen, wobei die erfassten optischen Grenzstrukturen (202) im Wesentlichen an der Stelle verharren. Somit würden alle Akkumulations-Zähler mit der Zeit ansteigen. Auch fehlerhafte Kanten-Punkte (410x) würden während eines Sillstands des Fahrzeugs akkumulieren. Es ist daher vorteilhaft die Konfidenz einer Messung, insbesondere den Akkumulations-Zähler, nur während einer Bewegung des Fahrzeugs (1) zu erhöhen.In another embodiment, an expiration rate is applied to an accumulation counter. The decay rate has the effect that the accumulation counter of an accumulation point is reduced over time. This is particularly advantageous when the vehicle is at a standstill. While the vehicle is at a standstill, new surrounding image recordings are continuously taken, the detected optical boundary structures ( 202 ) essentially remain there. Thus, all of the accumulation counters would increase over time. Also faulty edge points ( 410x ) would accumulate during a standstill of the vehicle. It is therefore advantageous to have a measurement, in particular the accumulation counter, only during a movement of the vehicle ( 1 ) to increase.

Die Akkumulation von Kanten-Punkten (410) über mehrere zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen (300,300') kann entweder kontinuierlich, insbesondere unter Anwendung einer Verfallsrate, oder in vorbestimmten Akkumulationsintervallen durchgeführt werden. Ein Akkumulationsintervall kann beispielsweise einen Zeitraum von einigen 100ms umfassen. Eine Messung einer Position eines Umgebungsobjektes, insbesondere eines Kontur-Linien-Objekts oder eines Streifen-Objekts kann insbesondere aus der Verarbeitung mehrerer Umgebungs-Bildaufnahmen während eines Akkumulationsintervalls bestehen. Einer Messung kann insbesondere erst bei Erreichen einer bestimmten Konfidenz am Ende eines Akkumulationsintervalls vertraut werden.The accumulation of edge points ( 410 ) over several temporally staggered environmental images ( 300 , 300 ' ) can either be carried out continuously, in particular using a decay rate, or at predetermined accumulation intervals. An accumulation interval can, for example, span a period of a few 100 ms. A measurement of a position of a surrounding object, in particular a contour line object or a stripe object, can consist in particular of processing a plurality of surrounding image recordings during an accumulation interval. In particular, a measurement can only be trusted when a certain confidence is reached at the end of an accumulation interval.

In einer Ausführungsform wird zumindest ein Bereich des Bewegungsraum-Koordinatensystems (400) in ein vorbestimmtes Raster (405) mit Raster-Zellen eingeteilt. Das Raster (405) kann insbesondere einmalig vorbestimmt sein oder parametrisierbar sein. Bevorzugt ist jeder Raster-Zelle ein Akkumulations-Punkt (420) zugeordnet. In einer bevorzugten Ausführungsform wird mit jeder Umgebungs-Bildaufnahme (300') ein neuer Akkumulations-Punkte (420') für jede Raster-Zelle erzeugt. Akkumulations-Punkte (420) oder Kanten-Punkte (410) aus älteren Umgebungs-Bildaufnahmen (300) werden bevorzugt mit den neu erzeugten Akkumulations-Punkten (420') akkumuliert. Bevorzugt werden die Informationen in den älteren Akkumulations-Punkten (420) bei der Akkumulation auf die neuen Akkumulations-Punkte (420') übertragen.In one embodiment, at least one area of the movement space coordinate system ( 400 ) in a predetermined grid ( 405 ) divided with raster cells. The grid ( 405 ) can in particular be predetermined once or can be parameterized. Each raster cell is preferably an accumulation point ( 420 ) assigned. In a preferred embodiment, with each surrounding image recording ( 300 ' ) a new accumulation point ( 420 ' ) for each raster cell. Accumulation points ( 420 ) or edge points ( 410 ) from older environmental images ( 300 ) are preferred with the newly created accumulation points ( 420 ' ) accumulated. The information in the older accumulation points ( 420 ) when accumulating to the new accumulation points ( 420 ' ) transfer.

Die Position eines Akkumulations-Punktes (420') kann bei der Akkumulation von älteren Akkumulations-Punkten (420) oder Kanten-Punkten (410') angepasst werden. Bevorzugt wird eine mittlere Position zwischen einem jüngeren Akkumulations-Punkt (420') und einem Akkumulations-Punkt (420) bestimmt, der mit dem erstgenannten akkumuliert wird. Bei der Bestimmung einer mittleren Position kann insbesondere die Position eines Akkumulations-Punktes mit dessen Akkumulations-Zähler gewichtet werden. Die Verwendung eines Rasters ermöglicht eine besonders speichereffiziente Durchführung des Verfahrens. Die Ermittlung einer mittleren Position der Akkumulations-Punkte erhöht wiederum die Genauigkeit der Positionsbestimmung bzw. Messung.The position of an accumulation point ( 420 ' ) when accumulating older accumulation points ( 420 ) or edge points ( 410 ' ) be adjusted. A middle position between a younger accumulation point ( 420 ' ) and an accumulation point ( 420 ) determined, which is accumulated with the former. When determining an average position, the position of an accumulation point in particular can be weighted using its accumulation counter. The use of a grid enables the method to be carried out in a particularly memory-efficient manner. The determination of an average position of the accumulation points in turn increases the accuracy of the position determination or measurement.

In einer bevorzugten Ausführungsform werden Kontur-Linien-Objekte (440) mittels eines Clusterings von Kanten-Punkten (410) entlang oder in der Nähe eines Linien-Objekts (430) bestimmt. Das Clustering basiert bevorzugt auf einer Kombination von Eigenschaften der Kanten-Punkte (410) und/oder deren zuordenbaren Kanten-Merkmale (310) in einer Umgebungs-Bildaufnahme (300). Insbesondere kann als Kriterium für das Clustering der Abstand eines Kanten-Punktes (410) zu einem Bezugspunkt im Bewegungsraum-Koordinatensystem (400) verwendet werden. Alternativ oder zusätzlich kann ein Farbwert eines Kanten-Merkmals (310) in einer Umgebungs-Bildaufnahme (300) verwendet werden. Alternativ oder zusätzlich kann der Abstand eines Bezugs-Kanten-Merkmals (321) in einer Umgebungs-Bildaufnahme (300) zu einem zugehörigen Gegen-Kanten-Merkmal (322) innerhalb eines Kanten-Merkmal-Paares (320) verwendet werden. Zur Durchführung eines Clusterings sind dem Fachmann verschiedene Algorithmen bekannt.In a preferred embodiment, contour line objects ( 440 ) by clustering edge points ( 410 ) along or near a line object ( 430 ) certainly. Clustering is preferably based on a combination of properties of the edge points ( 410 ) and / or their assignable edge features ( 310 ) in a surrounding image recording ( 300 ). In particular, the distance between an edge point ( 410 ) to a reference point in the movement space coordinate system ( 400 ) be used. Alternatively or additionally, a color value of an edge feature ( 310 ) in a surrounding image recording ( 300 ) be used. Alternatively or additionally, the distance of a reference edge feature ( 321 ) in a surrounding image recording ( 300 ) to an associated counter-edge characteristic ( 322 ) within a pair of edge features ( 320 ) be used. Various algorithms are known to the person skilled in the art for carrying out clustering.

Beim Clustering werden aus einer Menge von Kanten-Punkten (410) einzelne zusammenhängende Cluster (441) gebildet. Dabei werden Kanten-Punkte (410) anhand einer oder mehrere Eigenschaften gruppiert. Es ist zu erwarten, dass Kanten-Merkmale und diesen zugehörige Kanten-Punkte an einer gemeinsamen Grenzstruktur (202), insbesondere an einer Parkflächenmarkierung, ähnliche Eigenschaften untereinander aufweisen. In clustering, a set of edge points ( 410 ) individual connected clusters ( 441 ) educated. Edge points ( 410 ) grouped based on one or more properties. It is to be expected that edge features and their associated edge points on a common boundary structure ( 202 ), in particular on a parking area marking, have similar properties to one another.

In einer weiteren Ausführungsform werden erfasste Streifen-Objekte (450) nachjustiert. Die Nachjustierung kann durch Ermittlung eines optischen Übergangs entlang einer Suchrichtung am Ende eines Streifen-Objekts (450) stattfinden. Insbesondere können mehrere Suchlinien parallel zum Streifen-Objekt an einem Ende des Streifen-Objekts (450) definiert werden. Eine Suchlinie definiert eine Reihe von Pixeln innerhalb und außerhalb des Streifen-Objekts. Die Suchlinie beginnt bevorzugt innerhalb des Streifens kurz vor dessen Ende und ragt über das Ende des Streifens hinaus. Bevorzugt werden Bildinformationen entlang der Suchlinie ausgewertet. Bevorzugt wird nach einem abrupten Sprung im Grauwert entlang der Suchlinie gesucht. Ein solcher Sprung steht erfahrungsgemäß für den Übergang eines beispielsweise weißen Streifens zu einem dunklen Untergrund. Das Ende des Streifen-Objekts (450) wird anschließend auf den Punkt eines charakteristischen Übergangs entlang einer Suchlinie festgelegt. Alternativ oder zusätzlich können mehrere Suchlinien definiert werden und deren Ergebnisse kombiniert werden.In a further embodiment, detected strip objects ( 450 ) readjusted. The Readjustment can be carried out by determining an optical transition along a search direction at the end of a strip object ( 450 ) occur. In particular, several search lines parallel to the stripe object at one end of the stripe object ( 450 ) To be defined. A search line defines a series of pixels inside and outside the stripe object. The search line preferably begins within the strip shortly before its end and protrudes beyond the end of the strip. Image information along the search line is preferably evaluated. It is preferred to search for an abrupt jump in the gray value along the search line. Experience has shown that such a jump represents the transition from, for example, a white stripe to a dark background. The end of the streak object ( 450 ) is then set to the point of a characteristic transition along a search line. Alternatively or additionally, several search lines can be defined and their results combined.

Das offenbarte Objekterkennungsverfahren wird bevorzugt für Kraftfahrzeuge eingesetzt. Für diesen Einsatz bietet das Verfahren besondere Vorteile. Insbesondere ist das Verfahren mit Großserienkomponenten und automobiltauglicher Elektronik kostengünstig umsetzbar.The disclosed object recognition method is preferably used for motor vehicles. The process offers particular advantages for this application. In particular, the method can be implemented cost-effectively with large-series components and automotive electronics.

Das Objekterkennungsverfahren und/oder ein offenbartes Teilverfahren wird insbesondere durch Ausführung von Anweisungen auf einer elektronischen Steuereinrichtung, z.B. einem Steuergerät in einem Fahrzeug, ausgeführt. The object detection method and / or a disclosed partial method is carried out in particular by executing instructions on an electronic control device, e.g. a control unit in a vehicle.

Die Offenbarung umfasst auch ein Software-Produkt, das Anweisungen enthält, die zur Ausführung auf einer elektronischen Datenverarbeitungseinrichtung geeignet sind. Die Anweisungen sind dazu ausgebildet eines der beanspruchten Verfahren auszuführen.The disclosure also includes a software product that contains instructions suitable for execution on an electronic data processing device. The instructions are designed to carry out one of the claimed methods.

Das offenbarte Verfahren ist bevorzugt computerimplementiert. Die Ausführung des Verfahrens erfolgt bevorzugt vollautomatisch. Insbesondere die Verarbeitung von Umgebungs-Bildaufnahmen im Echtzeitbetrieb erfordert eine teilautomatische oder vollautomatische Ausführung des Objekterkennungsverfahrens.The disclosed method is preferably implemented in a computer. The method is preferably carried out fully automatically. In particular, the processing of ambient image recordings in real time operation requires a partially automatic or fully automatic execution of the object recognition process.

Auf Basis des Verfahrens oder auf Basis der erzeugten Datenstrukturen bzw. Objekte können Steuerbefehle erzeugt werden. Die Datenstrukturen können insbesondere auf einer Anzeigeeinrichtung ausgegeben werden. Die erzeugten Steuerbefehle können zur Ansteuerung einer Anzeigeeinrichtung oder einer Fahrzeugführungseinrichtung (z.B. Parkassistent) verwendet werden.Control commands can be generated on the basis of the method or on the basis of the data structures or objects generated. The data structures can in particular be output on a display device. The generated control commands can be used to control a display device or a vehicle guidance device (e.g. parking assistant).

Abwandlungen der Erfindung sind in verschiedener Weise möglich. Insbesondere können die zu den jeweiligen Ausführungsbeispielen gezeigten, beschriebenen oder beanspruchten Merkmale in beliebiger Weise miteinander kombiniert, gegeneinander ersetzt, ergänzt oder weggelassen werden.Modifications of the invention are possible in various ways. In particular, the features shown, described or claimed for the respective exemplary embodiments can be combined with one another in any manner, replaced with one another, supplemented or omitted.

BezugszeichenlisteReference list

11
Fahrzeugvehicle
1111
Kameracamera
22nd
ParkflächeParking area
55
FahrebeneDriving level
66
Horizont horizon
201201
ParkflächenmarkierungParking area marking
202202
Grenzstruktur Border structure
300, 300'300, 300 '
Umgebungs-BildaufnahmeAmbient image acquisition
301301
VerarbeitungsausschnittProcessing cutout
302302
AbtastsegmentScan segment
310310
Kanten-MerkmalEdge feature
310a310a
Kanten-Merkmal Typ 1Edge characteristic type 1
310b310b
Kanten-Merkmal Typ 2Edge characteristic type 2
310x310x
Kanten-Merkmal (außerhalb Fahrebene)Edge feature (outside the driving plane)
315315
Zähl-RichtungCount direction
320320
Kanten-Merkmal-PaarEdge feature pair
321321
Bezugs-Kanten-MerkmalReference edge feature
322322
Gegen-Kanten-MerkmalCounter-edge feature
325325
Suchrichtung Search direction
400400
Bewegungsraum-KoordinatensystemMovement space coordinate system
405405
Raster, Raster-ZellenGrid, grid cells
410, 410'410, 410 '
Kanten-PunktEdge point
410x, 410x'410x, 410x '
Fehlerbehaftete Position eines Kanten-Punkts (falsche Annahme bzgl. Fahrebene)Defective position of an edge point (incorrect assumption regarding the driving plane)
410r410r
Tatsächliche Position eines Kanten-Punktes in realer UmgebungActual position of an edge point in a real environment
410e410e
Cluster-ExtrempunktCluster extreme point
411411
ProjektionslinieProjection line
hH
Höhe über FahrebeneHeight above driving level
420, 420', 420x420, 420 ', 420x
Akkumulations-Punkt Accumulation point
430430
Linien-ObjektLines object
435, 435i435, 435i
Zählstreifen Counting strips
440, 440a440, 440a
Kontur-Linien-ObjektContour line object
441441
Cluster Cluster
440b440b
Gegen-Kontur-Linien-Objekt Counter-contour line object
450450
Streifen-ObjektStripe object
450r450r
Bezugs-Streifen-Objekt Reference strip object
455455
Passungs-Satz Fit set
500500
Parkflächen-Objekt Parking space object
Ai, AmjAi, Amj
RichtungswinkelDirectional angle
Di, DmjTue, Dmj
QuerabstandTransverse distance
c[Ai,Di]c [Ai, Di]
Zähl-ErgebnisCounting result
cMjcMj
Lokales Zähl-Maximum Local count maximum
P1, P2, PiP1, P2, Pi
Abstands-MusterDistance pattern
PO1, PO2, POiPO1, PO2, POi
Muster-VersatzPattern offset
PL1, PL2, PLiPL1, PL2, PLi
Muster-LinienPattern lines
TT
Toleranz-Bereich Tolerance range
ISIS
SchnittflächeCutting surface
USUS
VereinigungsflächeUnion area
XSXS
ÜbereinstimmungsmaßMeasure of conformity
SaSat
Deckungs-FlächeCover area
SbSb
Gegen-Deckungs-Fläche Counter-cover area
Y, ZY Z
[vergrößerte Bildausschnitte][enlarged image sections]

Claims (17)

Computerbasiertes Objekterkennungsverfahren zur Erkennung mindestens einer Parkfläche (2) in der Umgebung eines Fahrzeugs (1), wobei das Objekterkennungsverfahren die folgenden Schritte aufweist: - Beziehen mindestens einer Umgebungs-Bildaufnahme (300), die eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs (1) umfasst; - Erfassen mindestens einer optisch wahrnehmbaren linearen Grenzstruktur (202) einer Parkflächenmarkierung (201) in der Umgebungs-Bildaufnahme (300); - Identifizieren mindestens einer Parkfläche (2) auf Basis der mindestens einen erfassten Grenzstruktur (202).Computer-based object recognition method for recognizing at least one parking area (2) in the vicinity of a vehicle (1), the object recognition method comprising the following steps: - Obtaining at least one surrounding image recording (300), which comprises an image representation of a surrounding area of the vehicle (1); - Detecting at least one optically perceptible linear boundary structure (202) of a parking area marking (201) in the surrounding image recording (300); - Identifying at least one parking area (2) based on the at least one detected boundary structure (202). Objekterkennungsverfahren nach Anspruch 1, gekennzeichnet durch: - Bestimmen eines Verarbeitungsausschnitts (301) in einer Umgebungs-Bildaufnahme (300), der ein oder mehrere Abtastsegmente (302) umfasst, wobei das Erfassen der mindestens einen optisch wahrnehmbaren Grenzstruktur (202) innerhalb des Verarbeitungsausschnitts (301) erfolgt, und wobei das Bestimmen des Verarbeitungsausschnitts (301) die folgenden Schritte umfasst, die ein- oder mehrfach ausgeführt werden: ◦ Definieren von Abtastsegmenten (302) als Teilbereiche der Umgebungs-Bildaufnahme (300); ◦ Anwenden eines Kantenfilters auf die Umgebungs-Bildaufnahme (300) oder ein Abtastsegment (302) zur Ermittlung von Kanten-Merkmalen (310); ◦ In einem Abtastsegment (302): Richtungsbezogenes Zählen von Kanten-Merkmalen (310) in Bezug auf mindestens eine vorbestimmte Richtung (315); ◦ Wenn eine richtungsbezogene Summe der Kanten-Merkmale (310) in einem Abtastsegment einen Verarbeitungsrelevanz-Schwellenwert überschreitet, Aufnehmen dieses Abtastsegments (302) in den Verarbeitungsausschnitt (301).Object recognition process according to Claim 1 , characterized by : - determining a processing section (301) in an environmental image recording (300), which comprises one or more scanning segments (302), the at least one optically perceptible boundary structure (202) being detected within the processing section (301), and wherein determining the processing section (301) comprises the following steps, which are carried out one or more times: ◦ defining scan segments (302) as partial areas of the surrounding image recording (300); ◦ applying an edge filter to the surrounding image recording (300) or a scanning segment (302) to determine edge features (310); ◦ In a scan segment (302): direction-related counting of edge features (310) with respect to at least one predetermined direction (315); ◦ If a directional sum of the edge features (310) in a scan segment exceeds a processing relevance threshold, include this scan segment (302) in the processing section (301). Objekterkennungsverfahren nach Anspruch 1 oder 2, gekennzeichnet durch: - Auffinden eines oder bevorzugt einer Mehrzahl von Kanten-Merkmal-Paaren (320), wobei Kanten-Merkmale (310), für die ein Kanten-Merkmal-Paar (320) auffindbar ist, für die Weiterverarbeitung freigegeben werden, und wobei das Auffinden die folgenden Schritte umfasst: ◦ Ermitteln oder Beziehen von Kanten-Merkmalen (310) in einer Umgebungs-Bildaufnahme (300); ◦ Bestimmen eines Kanten-Merkmals (310) als Bezugs-Kanten-Merkmal (321); ◦ Ausgehend von einem Bezugs-Kanten-Merkmal (321): Aufsuchen eines zweiten Kanten-Merkmals (320) als zugehöriges Gegen-Kanten-Merkmal (322), entlang einer vorgegebenen Suchrichtung (325), insbesondere entlang einer ersten oder zweiten Bildachse der Umgebungs-Bildaufnahme (300), und/oder innerhalb eines vorgegebenen Abstands (326) in der Umgebungs-Bildaufnahme (300); ◦ Wenn ein Gegen-Kanten-Merkmal (322) auffindbar ist, Zuweisen dieses Gegen-Kanten-Merkmals (322) zum Bezugs-Kanten-Merkmal (321) unter Bildung eines Kanten-Merkmal-Paares (320).Object recognition process according to Claim 1 or 2nd , characterized by : finding one or preferably a plurality of edge-feature pairs (320), whereby edge features (310) for which an edge-feature pair (320) can be found are released for further processing, and the finding comprising the following steps: ◦ determining or acquiring edge features (310) in a surrounding image recording (300); ◦ determining an edge feature (310) as a reference edge feature (321); ◦ Starting from a reference edge feature (321): searching for a second edge feature (320) as an associated counter-edge feature (322), along a predetermined search direction (325), in particular along a first or second image axis of the surroundings Image recording (300), and / or within a predetermined distance (326) in the surrounding image recording (300); ◦ If a counter edge feature (322) can be found, assign this counter edge feature (322) to the reference edge feature (321) to form an edge feature pair (320). Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: - Auffinden von Kanten-Punkten (410), die in der Fahrebene (5) des Fahrzeugs (1) liegen und für die Weiterverarbeitung freigegeben werden, und wobei das Auffinden die folgenden Schritte umfasst: ◦ Ermitteln von Kanten-Merkmalen (310) mit zughöriger Bild-Position in einer Umgebungs-Bildaufnahme (300); ◦ Für mindestens ein Kanten-Merkmal (310): Bestimmen eines zugehörigen Kanten-Punktes (410) in einem Bewegungsraum-Koordinatensystem (400) unter der Annahme, dass der Kanten-Punkt in einer vorgegebenen Fahrebene (5) liegt; ◦ Akkumulieren von Kanten-Punkten (410, 410x, 410', 410x') im Bewegungsraum-Koordinatensystem (400) während einer Bewegung des Fahrzeugs (1) über mindestens zwei nacheinander aufgenommene Umgebungs-Bildaufnahmen (300, 300') hinweg, wobei ein jüngerer Kanten-Punkt (410') aus einer jüngeren Umgebungs-Bildaufnahme (300') mit einem älteren Kanten-Punkt (410) aus einer älteren Umgebungs-Bildaufnahme (300), der im Bewegungsraum-Koordinatensystem (400) gemäß der Eigenbewegung des Fahrzeugs (1) verschoben wurde, akkumuliert wird, wenn ein Nähe-Kriterium zwischen diesen Kanten-Punkten (410, 410') erfüllt ist; ◦ Identifizieren von Kanten-Punkten (410, 410'), die aufgrund der korrekt getroffenen Annahme bezüglich deren Lage auf der Fahrebene (5) das Nähe-Kriterium zu älteren Kanten-Punkten (410) erfüllen und mit diesen akkumuliert werden, wobei diese Kanten-Punkte (410') oder Repräsentanten (420') dieser akkumulierten Kanten-Punkte (410') für die Weiterverarbeitung freigegeben werden.Object detection method according to one of the preceding claims, characterized by : - finding edge points (410) which lie in the driving plane (5) of the vehicle (1) and are released for further processing, and the finding comprises the following steps: ◦ Determining edge features (310) with associated image position in a surrounding image recording (300); ◦ For at least one edge feature (310): Determining an associated edge point (410) in a movement space coordinate system (400) on the assumption that the edge point lies in a predetermined driving plane (5); ◦ accumulation of edge points (410, 410x, 410 ', 410x') in the movement space coordinate system (400) during a movement of the vehicle (1) over at least two successively recorded surrounding image recordings (300, 300 '), whereby one younger edge point (410 ') from a younger surrounding image recording (300') with an older edge point (410) from an older surrounding image recording (300) which is in the movement space coordinate system (400) according to the vehicle's own movement (1) is accumulated when a proximity criterion between these edge points (410, 410 ') is met; ◦ Identification of edge points (410, 410 ') which, on the basis of the correctly made assumption regarding their position on the driving plane (5), meet the proximity criterion for older edge points (410) and are accumulated with them, these edges Points (410 ') or representatives (420') of these accumulated edge points (410 ') are released for further processing. Objekterkennungsverfahren nach Anspruch 4, wobei das Akkumulieren folgende Schritte umfasst: - Definieren mindestens eines Akkumulations-Punktes (420) mit einem Akkumulations-Zähler und einer Raum-Position in einem Bewegungsraum-Koordinatensystem (400). - Für eine erste Umgebungs-Bildaufnahme (300), die zu einem ersten Zeitpunkt aufgenommen wurde, mindestens einmalige Ausführung der folgenden Schritte: ◦ Zuweisen eines Kanten-Punkts (410) der ersten Umgebungsbild-Aufnahme (300) zu einem Akkumulations-Punkt (420) im Bewegungsraum-Koordinatensystem (400), für den ein Nähe-Kriterium zwischen dem Kanten-Punkt (410) und dem Akkumulations-Punkt (420) erfüllt ist; ◦ Erhöhen des Akkumulations-Zählers eines Akkumulations-Punktes (420), wenn diesem Akkumulations-Punkt ein Kanten-Punkt (410, 410x) zugewiesen wird; - Für eine zweite Umgebungs-Bildaufnahme (300`), die zu einem späteren zweiten Zeitpunkt aufgenommen wurde: ◦ Beziehen von Bewegungsdaten über die Eigenbewegung des Fahrzeugs (1) zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt; mindestens einmalige Ausführung der folgenden Schritte: ◦ Aktualisieren der Position eines Akkumulations-Punktes (420') im Bewegungsraum-Koordinatensystem (400) entsprechend den Bewegungsdaten; ◦ Zuweisen eines Kanten-Punkts (410') der zweiten Umgebungsbild-Aufnahme (300') zu einem aktualisierten Akkumulations-Punkt (420'), für den ein Nähe-Kriterium erfüllt ist; ◦ Erhöhen des Akkumulations-Zählers eines Akkumulations-Punktes (420'), wenn diesem Akkumulations-Punkt ein Kanten-Punkt (410') zugewiesen wird; - Identifizieren von Akkumulations-Punkten (420`), deren Akkumulations-Zähler oberhalb eines Konfidenz-Schwellenwertes liegt und Freigabe dieser Akkumulations-Punkte für die Weiterverarbeitung.Object recognition process according to Claim 4 The accumulation comprises the following steps: - Defining at least one accumulation point (420) with an accumulation counter and a space position in a movement space coordinate system (400). - For a first surrounding image recording (300) that was recorded at a first point in time, carry out the following steps at least once: ◦ assigning an edge point (410) of the first surrounding image recording (300) to an accumulation point (420 ) in the movement space coordinate system (400), for which a proximity criterion between the edge point (410) and the accumulation point (420) is fulfilled; ◦ incrementing the accumulation counter of an accumulation point (420) when an edge point (410, 410x) is assigned to this accumulation point; - For a second environmental image recording (300`), which was recorded at a later second point in time: ◦ obtaining movement data about the own movement of the vehicle (1) between the first point in time and the second point in time; performing the following steps at least once: ◦ updating the position of an accumulation point (420 ') in the movement space coordinate system (400) in accordance with the movement data; ◦ assigning an edge point (410 ') of the second environment image recording (300') to an updated accumulation point (420 ') for which a proximity criterion is fulfilled; ◦ incrementing the accumulation counter of an accumulation point (420 ') when an edge point (410') is assigned to this accumulation point; - Identification of accumulation points (420`) whose accumulation counter is above a confidence threshold and release of these accumulation points for further processing. Objekterkennungsverfahren nach Anspruch 4 oder 5, wobei eine Verfallsrate auf einen Akkumulations-Zähler angewendet wird, sodass der Akkumulationszähler mit der Zeit reduziert wird.Object recognition process according to Claim 4 or 5 , wherein an expiration rate is applied to an accumulation counter so that the accumulation counter is reduced over time. Objekterkennungsverfahren nach Anspruch 4, 5 oder 6, gekennzeichnet durch: - Bestimmen eines Rasters (405) mit Raster-Zellen in einem Bewegungsraum-Koordinatensystem (400), wobei mindestens einer und insbesondere jeder Raster-Zelle ein Akkumulations-Punkt (420) zugeordnet ist; - Verorten eines Kanten-Punktes (410) im Raster (405); - Zuweisen eines Kanten-Punktes (410) zum Akkumulations-Punkt (420) derjenigen Raster-Zelle, in der der Kanten-Punkt (410) verortet wird.Object recognition process according to Claim 4 , 5 or 6 , characterized by : - determining a grid (405) with grid cells in a movement space coordinate system (400), at least one and in particular each grid cell being assigned an accumulation point (420); - Locating an edge point (410) in the grid (405); - Assign an edge point (410) to the accumulation point (420) of the raster cell in which the edge point (410) is located. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: - Erzeugen von Linien-Objekten (430) in einem Bewegungsraum-Koordinatensystem (400) auf Basis zuvor bestimmter Kanten-Punkte (410), insbesondere freigegebener Kanten-Punkte (410), wobei das Erzeugen die folgenden Schritte umfasst: ◦ Beziehen von zumindest zwei getrennten Punkte-Mengen, wobei die erste Punkte-Menge Kanten-Punkte eines ersten Typs und die zweite Punkte-Menge Kanten-Punkte eines zweiten Typs umfasst; ◦ Definieren von Zählstreifen (435) im Bewegungsraum-Koordinatensystem (400), wobei jeder Zählstreifen (435i) einen vorbestimmten Richtungswinkel (Ai) und einen vorbestimmten Querabstand (Di) zu einem Bezugspunkt im Bewegungsraum-Koordinatensystem (400) aufweist; ◦ Für die mindestens zwei Punkte-Mengen und vordefinierten Zählsteifen: Zählen der Kanten-Punkte (410) innerhalb je einer Punkte-Menge, die innerhalb eines Zählstreifens (435) im Bewegungsraum-Koordinatensystem (400) liegen, unter Bildung einer Zählstreifen-Summe (c[Ai,Di]), wobei die Zählstreifen-Summen (c[Ai,Di]) eine Verteilung über verschiedene Richtungswinkel (Ai) und Querabstände (Di) bilden; ◦ Bestimmen mindestens eines Zählstreifens (435), der ein lokales Zähl-Maximum (cMj) innerhalb der Verteilung (c[Ai,Di]) aufweist; ◦ Für einen Zählstreifen (435) mit einem lokalen Zählmaximum: Definieren eines Linien-Objekts (430) im Bewegungsraum-Koordinatensystem (400) mit dem Richtungswinkel (Amj) und dem Querabstand (Dmj) dieses Zählstreifens (435).Object recognition method according to one of the preceding claims, characterized by : - generating line objects (430) in a movement space coordinate system (400) on the basis of previously determined edge points (410), in particular released edge points (410), wherein the generation comprises the following steps: ◦ obtaining at least two separate sets of points, the first set of points comprising edge points of a first type and the second set of points comprising edge points of a second type; ◦ defining counting strips (435) in the movement space coordinate system (400), each counting strip (435i) having a predetermined directional angle (Ai) and a predetermined transverse distance (Di) to a reference point in the movement space coordinate system (400); ◦ For the at least two sets of points and predefined counting strips: Counting the edge points (410) within a set of points that lie within a counting strip (435) in the movement space coordinate system (400), forming a counting strip sum ( c [Ai, Di]), the counting strip sums (c [Ai, Di]) forming a distribution over different angles of direction (Ai) and transverse distances (Di); ◦ determining at least one counting strip (435) which has a local counting maximum (cMj) within the distribution (c [Ai, Di]); ◦ For a metering strip (435) with a local counting maximum: Define a line object (430) in the movement space coordinate system (400) with the direction angle (Amj) and the transverse distance (Dmj) of this metering strip (435). Objekterkennungsverfahren nach Anspruch 8, gekennzeichnet durch: - Bestimmen eines Kontur-Linien-Objekts (440) auf Basis eines Linien-Objekts (430), wobei das Kontur-Linien-Objekt (440) mindestens ein Ende aufweist, und wobei das Bestimmen die folgenden Schritte umfasst: ◦ Beziehen oder Erzeugen von Linien-Objekten (430); ◦ Für ein Linien-Objekt (430): Clustering von Kanten-Punkten (410) entlang oder in der Nähe des Linien-Objekts (430), wobei das Clustering auf Basis einer Kombination von Eigenschaften der Kanten-Punkte (410) und/oder deren zuordenbaren Kanten-Merkmale (310) in einer Umgebungs-Bildaufnahme (300) durchgeführt wird, insbesondere basierend auf einem Abstand eines Kanten-Punktes (410) zu einem Bezugspunkt im Bewegungsraum-Koordinatensystem (400), einem Farbwert eines Kanten-Merkmals (310) in einer Umgebungs-Bildaufnahme (300) und/oder einem Abstand eines Bezugs-Kanten-Merkmals (321) in einer Umgebungs-Bildaufnahme (300) zu einem zugehörigen Gegen-Kanten-Merkmal (322) eines Kanten-Merkmal-Paares (320); Für ein Cluster (441) von Kanten-Punkten (410): ◦ Ermitteln mindestens eines Extrem-Punktes (410e) innerhalb des Clusters (441) in Längsrichtung des Linien-Objekts (430); ◦ Bestimmen mindestens eines Endes eines Kontur-Linien-Objekts (440) auf Basis eines ermittelten Extrem-Punkts (410e). Object recognition process according to Claim 8 , characterized by : - determining a contour-line object (440) based on a line object (430), the contour-line object (440) having at least one end, and wherein the determination comprises the following steps:: Obtaining or creating line objects (430); ◦ For a line object (430): clustering of edge points (410) along or near the line object (430), the clustering based on a combination of properties of the edge points (410) and / or whose assignable edge features (310) are carried out in a surrounding image recording (300), in particular based on a distance between an edge point (410) and a reference point in the movement space coordinate system (400), a color value of an edge feature (310 ) in a surrounding image recording (300) and / or a distance of a reference edge feature (321) in a surrounding image recording (300) to an associated opposite edge feature (322) of a pair of edge features (320 ); For a cluster (441) of edge points (410): ◦ determining at least one extreme point (410e) within the cluster (441) in the longitudinal direction of the line object (430); ◦ determining at least one end of a contour line object (440) on the basis of a determined extreme point (410e). Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: - Bestimmen von Streifen-Objekten (450) auf Basis von Kontur-Linien-Objekten (440), wobei das Bestimmen die folgenden Schritte umfasst: ◦ Beziehen von zumindest zwei Linien-Mengen, wobei die erste Linien-Menge Kontur-Linien-Objekte (440a) eines ersten Typs umfasst und die zweite Linien-Menge Kontur-Linien-Objekte (440b) eines zweiten Typs umfasst. ◦ Paarweises Vergleichen von jeweils einem Kontur-Linien-Objekt (440a) der ersten Linien-Menge mit einem Gegen-Kontur-Linien-Objekt (440b) der zweiten Linien-Menge; ◦ Innerhalb eines Vergleich-Paares: Bestimmen eines Übereinstimmungsmaßes (XS) hinsichtlich Parallelität, Abstand und/oder gegenseitiger Deckung zwischen dem Kontur-Linien-Objekt (440a) und dem Gegen-Kontur-Linien-Objekt (440b); ◦ Wenn das Übereinstimmungsmaß (XS) eines Vergleich-Paares oberhalb eines Übereinstimmungs-Schwellenwertes liegt: Definieren eines Streifen-Objekts (450) auf Basis des Kontur-Linien-Objekts (440a) und des Gegen-Kontur-Linien-Objekts (440b) des Vergleich-Paares.Object recognition method according to one of the preceding claims, characterized by : - determining stripe objects (450) based on contour-line objects (440), the determination comprising the following steps: ◦ obtaining at least two sets of lines, the first line set includes contour line objects (440a) of a first type and the second line set includes contour line objects (440b) of a second type. ◦ Pairwise comparison of a contour line object (440a) of the first set of lines with a counter-contour line object (440b) of the second set of lines; ◦ Within a comparison pair: determining a measure of conformity (XS) with regard to parallelism, distance and / or mutual coverage between the contour line object (440a) and the counter-contour line object (440b); ◦ If the match size (XS) of a comparison pair is above a match threshold: Define a stripe object (450) based on the contour line object (440a) and the counter-contour line object (440b) of the Comparison pair. Objekterkennungsverfahren nach Anspruch 10, wobei das Bestimmen eines Übereinstimmungsmaßes (XS) zwischen einem Kontur-Linien-Objekt (440a) und einem Gegen-Kontur-Linien-Objekt (440b) die folgenden Schritte umfasst: ◦ Bestimmen einer Deckungs-Fläche (Sa) in Quer-Richtung des Kontur-Linien-Objekts (440a), wobei sich die Deckungs-Fläche (Sa) bis zum Gegen-Kontur-Linien-Objekt (440b) erstreckt; ◦ Bestimmen einer Gegen-Deckungs-Fläche (Sb) in Quer-Richtung des Gegen-Kontur-Linien-Objekts (440b), wobei sich die Gegen-Deckungs-Fläche (Sb) bis zum Kontur-Linien-Objekt (440a) erstreckt; ◦ Bestimmen einer Schnittfläche (IS) und einer Vereinigungsfläche (US) zwischen der Deckungs-Fläche (Sa) und der Gegen-Deckungs-Fläche (Sb); ◦ Bestimmen des Übereinstimmungsmaßes (XS) aus dem Quotienten der Schnittfläche (IS) und der Vereinigungsfläche (US).Object recognition process according to Claim 10 , the determination of a measure of conformity (XS) between a contour line object (440a) and a counter-contour line object (440b) comprising the following steps: ◦ determination of a coverage area (Sa) in the transverse direction of the Contour line object (440a), the cover area (Sa) extending to the counter-contour line object (440b); ◦ determining a counter-coverage area (Sb) in the transverse direction of the counter-contour line object (440b), the counter-coverage area (Sb) extending to the contour line object (440a); ◦ determining an intersection surface (IS) and a union surface (US) between the cover surface (Sa) and the counter-cover surface (Sb); ◦ Determine the measure of conformity (XS) from the quotient of the cut surface (IS) and the union surface (US). Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: - Erzeugen eines Parkflächen-Objekts (500) auf Basis zuvor erfasster Streifen-Objekte (450), wobei das Erzeugen die folgenden Schritte umfasst: ◦ Beziehen von Streifen-Objekten (450), wobei ein Streifen-Objekt (450) eine Position und eine Ausrichtung in einem Bewegungsraum-Koordinatensystem (400) aufweist; ◦ Bestimmen eines Bezugs-Streifen-Objekts (450r); ◦ Anwenden mehrerer vorbestimmter Abstands-Muster, wobei für ein Abstands-Muster (P1, P2, Pi) vom Bezugs-Streifen-Objekt (450r) parallel versetzte Muster-Linien (PLi) mit einem wiederkehrenden Muster-Versatz (POi) zueinander bestimmt werden; ◦ Bestimmen eines optimalen Abstands-Musters (Pi) mit bester Passung zwischen den Streifen-Objekten (450) und den Muster-Linien (PLi) des Abstands-Musters (Pi); ◦ Bestimmen eines Passungs-Satzes (455) aus einem Bezugs-Streifen-Objekt (455r) und mindestens zwei weiteren Streifen-Objekten (450), die jeweils innerhalb eines Toleranz-Bereichs (T) um eine Muster-Linie (PLi) des optimalen Abstandsmusters (Pi) liegen; ◦ Bestimmen einer zusammenhängenden Gruppe von Parkflächen-Objekten (500) zwischen den Streifen-Objekten (450, 450r) eines Passungs-Satzes (455).Object recognition method according to one of the preceding claims, characterized by : - generating a parking area object (500) on the basis of previously detected stripe objects (450), the generation comprising the following steps: ◦ obtaining stripe objects (450), wherein a Stripe object (450) has a position and an orientation in a movement space coordinate system (400); ◦ determining a reference stripe object (450r); Mehrerer Applying a plurality of predetermined spacing patterns, whereby for a spacing pattern (P1, P2, Pi) from the reference strip object (450r) staggered pattern lines (PLi) with a recurring pattern offset (POi) are determined relative to one another ; ◦ determining an optimal spacing pattern (Pi) with the best fit between the strip objects (450) and the pattern lines (PLi) of the spacing pattern (Pi); ◦ Determining a fit set (455) from a reference strip object (455r) and at least two further strip objects (450), each within a tolerance range (T) around a pattern line (PLi) of the optimum Distance pattern (Pi) lie; ◦ Determining a coherent group of parking area objects (500) between the strip objects (450, 450r) of a fit set (455). Objekterkennungsverfahren nach Anspruch 12, gekennzeichnet durch: - Nachjustieren eines Parkflächen-Objekts (500) innerhalb einer zusammenhängenden Gruppe von Parkflächen-Objekten hinsichtlich gemeinsamer Flucht und/oder abstandsfreier Aneinanderreihung und/oder Parallelität der Parkflächen.Object recognition process according to Claim 12 , characterized by : - readjusting a parking area object (500) within a coherent group of parking area objects with regard to common alignment and / or spacing-free alignment and / or parallelism of the parking areas. Objekterkennungsverfahren nach einem der vorhergehenden Ansprüche, wobei ein Objekt-Tracking durchgeführt wird, insbesondere ein Tracking der Position eines Streifen-Objekts, eines Kontur-Linien-Objekts und/oder eines Parkflächen-Objekts. Object detection method according to one of the preceding claims, wherein object tracking is carried out, in particular tracking the position of a stripe object, a contour line object and / or a parking area object. Software-Produkt zur Ausführung auf einer elektronischen Datenverarbeitungseinrichtung, das Anweisungen umfasst, die dazu ausgebildet sind, ein Verfahren nach mindestens einem der Ansprüche 1 bis 14 auszuführen.Software product for execution on an electronic data processing device, which comprises instructions which are designed to implement a method according to at least one of the Claims 1 to 14 to execute. Elektronische Datenverarbeitungseinrichtung, die dazu ausgebildet ist, Signale von einer oder mehreren Umgebungs-Sensoreinrichtungen (11) zu beziehen und ein Verfahren nach mindestens einem der Ansprüche 1 bis 14 auszuführen, insbesondere unter Ausführung der Anweisungen eines Software-Produkts nach Anspruch 15.Electronic data processing device which is designed to receive signals from one or more environment sensor devices (11) and a method according to at least one of the Claims 1 to 14 to execute, in particular by following the instructions of a software product Claim 15 . Sensorsystem umfassend eine elektronische Datenverarbeitungseinrichtung nach Anspruch 16 und eine oder mehrere Umgebungs-Sensoreinrichtungen (11) .Sensor system comprising an electronic data processing device according to Claim 16 and one or more environmental sensor devices (11).
DE102018123393.0A 2018-09-24 2018-09-24 Detection of parking areas Pending DE102018123393A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018123393.0A DE102018123393A1 (en) 2018-09-24 2018-09-24 Detection of parking areas

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018123393.0A DE102018123393A1 (en) 2018-09-24 2018-09-24 Detection of parking areas

Publications (1)

Publication Number Publication Date
DE102018123393A1 true DE102018123393A1 (en) 2020-03-26

Family

ID=69725503

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018123393.0A Pending DE102018123393A1 (en) 2018-09-24 2018-09-24 Detection of parking areas

Country Status (1)

Country Link
DE (1) DE102018123393A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112946661A (en) * 2021-02-08 2021-06-11 同致电子科技(厦门)有限公司 Road edge detection method and device based on multi-view vision of 360-degree all-round vision system
CN115791791A (en) * 2022-11-14 2023-03-14 中国科学院沈阳自动化研究所 Visual detection method for liquid crystal panel packing scrap
CN116188512A (en) * 2023-04-27 2023-05-30 合肥埃科光电科技股份有限公司 Linear edge extraction method and system for image processing and electronic equipment
CN116442393A (en) * 2023-06-08 2023-07-18 山东博硕自动化技术有限公司 Intelligent unloading method, system and control equipment for mixing plant based on video identification
CN116740982A (en) * 2023-08-15 2023-09-12 禾多科技(北京)有限公司 Target parking space determination method and device, storage medium and electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2047213B1 (en) * 2006-07-21 2014-09-10 TRW Limited Generating a map
DE112015002593T5 (en) * 2014-06-02 2017-04-06 Denso Corporation VEHICLE-MOUNTED IMAGE PROCESSING DEVICE
US20180095474A1 (en) * 2016-09-30 2018-04-05 Faraday&Future Inc. Methods and systems for camera-based autonomous parking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2047213B1 (en) * 2006-07-21 2014-09-10 TRW Limited Generating a map
DE112015002593T5 (en) * 2014-06-02 2017-04-06 Denso Corporation VEHICLE-MOUNTED IMAGE PROCESSING DEVICE
US20180095474A1 (en) * 2016-09-30 2018-04-05 Faraday&Future Inc. Methods and systems for camera-based autonomous parking

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANG, S. [et al.]: Parking-lines detection based on an improved Hough transform. In: 2017 International Conference on Robotics and Machine Vision. International Society for Optics and Photonics, 2017, S. 1061307.URL: https://www.spiedigitallibrary.org/conference-proceedings-of-spie/10613/1061307/Parking-lines-detection-based-on-an-improved-Hough- transform/10.1117/12.2300492.pdf[abgerufen am 02.07.2019] *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112946661A (en) * 2021-02-08 2021-06-11 同致电子科技(厦门)有限公司 Road edge detection method and device based on multi-view vision of 360-degree all-round vision system
CN112946661B (en) * 2021-02-08 2023-10-20 同致电子科技(厦门)有限公司 Road edge detection method and device based on 360-degree looking-around system multi-view vision
CN115791791A (en) * 2022-11-14 2023-03-14 中国科学院沈阳自动化研究所 Visual detection method for liquid crystal panel packing scrap
CN116188512A (en) * 2023-04-27 2023-05-30 合肥埃科光电科技股份有限公司 Linear edge extraction method and system for image processing and electronic equipment
CN116442393A (en) * 2023-06-08 2023-07-18 山东博硕自动化技术有限公司 Intelligent unloading method, system and control equipment for mixing plant based on video identification
CN116442393B (en) * 2023-06-08 2024-02-13 山东博硕自动化技术有限公司 Intelligent unloading method, system and control equipment for mixing plant based on video identification
CN116740982A (en) * 2023-08-15 2023-09-12 禾多科技(北京)有限公司 Target parking space determination method and device, storage medium and electronic device
CN116740982B (en) * 2023-08-15 2023-12-01 禾多科技(北京)有限公司 Target parking space determination method and device, storage medium and electronic device

Similar Documents

Publication Publication Date Title
DE102014209137B4 (en) Method and device for calibrating a camera system of a motor vehicle
DE102018123393A1 (en) Detection of parking areas
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102015214338A1 (en) Determining an arrangement information for a vehicle
EP3491417A1 (en) Method and system for detecting landmarks in a traffic environment of a mobile unit
DE10029866A1 (en) Object recognition apparatus for motor vehicles, selects specific image windows depending on the distance difference and combines selected windows to recognize target object using attribute values
EP2963631B1 (en) Method for determining a parking space from a number of measuring points
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
EP2005361A1 (en) Multi-sensorial hypothesis based object detector and object pursuer
DE102018117660A1 (en) METHOD AND SYSTEM FOR DETERMINING A POSITION OF A VEHICLE
DE102016225595A1 (en) Method and arrangement for calibrating at least one sensor of a rail vehicle
DE102020112825A1 (en) Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102008008499B4 (en) Method for computer-aided calculation of the movement of an object from sensor data
DE19627938B4 (en) Method for dynamic tracking in moving picture sequences
DE102020134119B3 (en) Method for localizing a motor vehicle in an assistance card, motor vehicle, computer program and electronically readable data carrier
DE102013018561A1 (en) Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses
EP3663800B1 (en) Method for detecting objects using a 3d camera
DE102019102561A1 (en) Process for recognizing a plaster marking
DE102019210518A1 (en) Method for recognizing an object in sensor data, driver assistance system and computer program
DE102019127322A1 (en) Method for detecting objects in a vehicle environment, device for data processing, computer program product and computer-readable data carrier
DE102012008780A1 (en) Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model
DE102019209637B4 (en) Generating a vehicle environment map
DE102020214002B3 (en) Device and method for determining a position of a detection unit and method for storing extraction information in a database
DE102021209698A1 (en) Method for calibrating a road surveillance device and road surveillance system

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000