DE102018123393A1 - Detection of parking areas - Google Patents
Detection of parking areas Download PDFInfo
- Publication number
- DE102018123393A1 DE102018123393A1 DE102018123393.0A DE102018123393A DE102018123393A1 DE 102018123393 A1 DE102018123393 A1 DE 102018123393A1 DE 102018123393 A DE102018123393 A DE 102018123393A DE 102018123393 A1 DE102018123393 A1 DE 102018123393A1
- Authority
- DE
- Germany
- Prior art keywords
- edge
- point
- points
- accumulation
- image recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Die Offenbarung betrifft ein computerimplementiertes Objekterkennungsverfahren zur Erkennung mindestens einer Parkfläche in der Umgebung eines Fahrzeugs. Es werden Umgebungs-Bildaufnahmen bezogen, die eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs umfassen. In der Umgebungs-Bildaufnahme werden optisch wahrnehmbare Grenzstrukturen einer Parkflächenmarkierung erkannt. Auf Basis der erfassten Grenzstrukturen können Parkflächen identifiziert werden.The disclosure relates to a computer-implemented object recognition method for recognizing at least one parking area in the vicinity of a vehicle. Ambient image recordings are obtained which comprise an image representation of a surrounding area of the vehicle. Visually perceptible boundary structures of a parking area marking are recognized in the surrounding image recording. Parking areas can be identified on the basis of the boundary structures recorded.
Description
Die Erfindung betrifft eine Technik zur Erkennung von Parkflächen in der Umgebung eines Fahrzeugs.The invention relates to a technology for recognizing parking areas in the vicinity of a vehicle.
Stand der TechnikState of the art
Aus der Praxis sind Objekterkennungsverfahren bekannt, mit denen Objekte in der Umgebung eines Fahrzeugs maschinell erkannt werden können. Die Objekterkennung basiert auf der Verarbeitung von Daten mindestens eines Umgebungssensors. Bevorzugt werden hierfür Kamerasensoren eingesetzt, mit denen ein Bereich der Fahrzeugumgebung in Bildaufnahmen erfasst wird.Object recognition methods are known from practice, with which objects in the surroundings of a vehicle can be recognized mechanically. Object detection is based on the processing of data from at least one environmental sensor. For this purpose, camera sensors are preferably used, with which an area of the vehicle surroundings is captured in image recordings.
Es sind verschiedene computergestützte Verfahren bekannt, mit denen bestimmte Strukturen in einer Bildaufnahme, z.B. Straßenmarkierungen, Ampeln oder andere Fahrzeuge, erkannt werden können. Solche Verfahren stellen häufig hohe Ansprüche an die Rechenleistung der eingesetzten Computertechnik und/oder der eingesetzten Sensoren. Damit Objekterkennungsverfahren während des Betriebs eines Fahrzeugs eingesetzt werden können, müssen die Verfahren außerdem Echtzeitbedingungen erfüllen.Various computer-aided methods are known with which certain structures in an image recording, e.g. Road markings, traffic lights or other vehicles can be recognized. Such methods often place high demands on the computing power of the computer technology used and / or the sensors used. In order for object recognition methods to be used during the operation of a vehicle, the methods must also meet real-time conditions.
Aufgabetask
Aufgabe der Erfindung ist es, ein verbessertes Objekterkennungsverfahren zur Erkennung von Parkflächen aufzuzeigen. Die Erfindung löst die Aufgabe mit den Merkmalen der eigenständigen Ansprüche.The object of the invention is to demonstrate an improved object recognition method for recognizing parking areas. The invention solves the problem with the features of the independent claims.
ObjekterkennungsverfahrenObject recognition process
Gegenstand des Hauptanspruchs ist ein computerimplementiertes Objekterkennungsverfahren zur Erkennung mindestens einer Parkfläche in der Umgebung eines Fahrzeugs.The main claim relates to a computer-implemented object recognition method for recognizing at least one parking area in the vicinity of a vehicle.
Das Verfahren ist besonders geeignet für die Erkennung von Parkflächen für PKW, die quer zur Fahrtrichtung des Fahrzeugs ausgerichtet sind. Solche Parkflächen sind häufig in Gruppen angeordnet, insbesondere auf großen Parkplätzen z.B. vor Einkaufszentren. Das Verfahren kann auch für die Erkennung von Parkplätzen eingesetzt werden, die längs oder diagonal zur Fahrtrichtung des Fahrzeugs ausgerichtet sind.The method is particularly suitable for the detection of parking spaces for cars which are oriented transversely to the direction of travel of the vehicle. Such parking areas are often arranged in groups, especially in large parking lots e.g. in front of shopping centers. The method can also be used for the detection of parking spaces that are aligned lengthways or diagonally to the direction of travel of the vehicle.
Das Verfahren umfasst mehrere Schritte. Die Schritte können jeweils einzeln oder mehrfach ausgeführt werden. Außerdem können die Schritte in einer oder mehreren Phasen ausgeführt werden, die insbesondere in einer vorgegebenen Sequenz und/oder Taktung ausgeführt werden. Bevorzugt werden die Schritte des Objekterkennungsverfahrens nacheinander ausgeführt. Einzelne Schritte können zumindest teilweise parallel ausgeführt werden. Ein Schritt kann einen oder mehrere Unterschritte beinhalten. Die Verfahrensschritte können in einem oder mehreren (Software-)Modulen implementiert sein.The process consists of several steps. The steps can be carried out individually or several times. In addition, the steps can be carried out in one or more phases, which are carried out in particular in a predetermined sequence and / or timing. The steps of the object recognition method are preferably carried out in succession. Individual steps can be carried out at least partially in parallel. A step can contain one or more sub-steps. The method steps can be implemented in one or more (software) modules.
Ein Schritt des Verfahrens beinhaltet das Beziehen mindestens einer Umgebungs-Bildaufnahme, die eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs umfasst. Die Umgebungs-Bildaufnahme wird bevorzugt von einem Umgebungssensor bezogen, der am Fahrzeug angeordnet ist. Es kann auch eine Umgebungs-Bildaufnahme bezogen werden, die aus mehreren Bildaufnahmen, insbesondere Kamerabildern und/oder anderen in Bezug auf das Bildraster erfassten Daten, fusioniert ist.One step of the method includes acquiring at least one surrounding image recording, which comprises an image representation of a surrounding area of the vehicle. The environmental image recording is preferably obtained from an environmental sensor which is arranged on the vehicle. An environmental image recording can also be obtained, which is fused from a plurality of image recordings, in particular camera images and / or other data recorded in relation to the image raster.
Die Umgebungs-Bildaufnahme umfasst eine Bilddarstellung eines Umgebungsbereichs des Fahrzeugs. Die Bilddarstellung weist bevorzugt ein zweidimensionales Pixelraster auf, wobei jeder Pixel eine oder mehrere Bildinformationen umfasst. Eine Bildaufnahme weist ein Bildkoordinatensystem auf. Ein Pixel oder eine sonstige Bildinformation verfügt über eine bestimmbare Bildposition im Bildkoordinatensystem. Bevorzugt wird die Bildposition durch einen Reihen-Index und einen Spalten-Index eines Pixels bestimmt. Es können auch andere Bildkoordinaten verwendet werden.The surrounding image recording comprises an image representation of a surrounding area of the vehicle. The image display preferably has a two-dimensional pixel grid, each pixel comprising one or more image information. An image recording has an image coordinate system. A pixel or other image information has a definable image position in the image coordinate system. The image position is preferably determined by a row index and a column index of a pixel. Other image coordinates can also be used.
Eine Bildinformation kann insbesondere einen Grauwert, einen Farbwert, einen Helligkeitswert und/oder einen Kontrastwert umfassen. Alternativ oder zusätzlich kann eine Bildinformation auch eine Tiefeninformation, eine Disparität oder einen sonstigen Bildsignalwert umfassen. Bevorzugt werden Umgebungs-Bildaufnahmen einer MonoKamera, insbesondere mit einem Fish-Eye-Objektiv, verwendet. Alternativ oder zusätzlich können Bildaufnahmen einer oder mehrerer Stereo-Kameras oder eines Kamera-Verbundes verwendet werden. Die Bildaufnahmen können auch aus mehreren Bildaufnahmen zusammengesetzt oder anderweitig vorverarbeitet sein.Image information can in particular comprise a gray value, a color value, a brightness value and / or a contrast value. Alternatively or additionally, image information can also include depth information, a disparity or some other image signal value. Ambient image recordings of a mono camera, in particular with a fish-eye lens, are preferably used. Alternatively or additionally, image recordings of one or more stereo cameras or of a camera network can be used. The image recordings can also be composed of several image recordings or otherwise preprocessed.
Der in der Bildaufnahme erfasste Umgebungsbereich des Fahrzeugs liegt bevorzugt seitlich neben dem Fahrzeug (in Bezug auf die Fahrtrichtung). Alternativ oder zusätzlich kann der erfasste Umgebungsbereich auch Bereiche in Fahrtrichtung vor und/oder hinter dem Fahrzeug umfassen.The surrounding area of the vehicle captured in the image recording is preferably located to the side of the vehicle (in relation to the direction of travel). Alternatively or additionally, the detected surrounding area can also include areas in the direction of travel in front of and / or behind the vehicle.
Ein weiterer Schritt des Objekterkennungsverfahrens beinhaltet das Erfassen mindestens einer optisch wahrnehmbaren linearen Grenzstruktur einer Parkflächenmarkierung in der Umgebungs-Bildaufnahme.A further step of the object detection method includes the detection of at least one optically perceptible linear boundary structure of a parking area marking in the surrounding image recording.
Eine Parkfläche im Sinne dieser Offenbarung ist dazu geeignet und dazu vorgesehen, ein Fahrzeug, insbesondere einen PKW, darauf zu parken. Eine solche Parkfläche liegt im Wesentlichen in einer Fahrebene, auf der sich das Fahrzeug bewegen kann. Eine Parkfläche wird in der Regel von mindestens zwei Parkflächenmarkierungen begrenzt.A parking area in the sense of this disclosure is suitable and provided for one Parking the vehicle, especially a car, on it. Such a parking area is essentially in a driving level on which the vehicle can move. A parking area is usually limited by at least two parking area markings.
Parkflächenmarkierungen werden häufig mit einem Farbmittel auf die Fahrebene aufgebracht, sodass sich die Parkflächenmarkierung optisch, insbesondere durch eine andere Farbe und/oder Helligkeit, vom Untergrund der Fahrebene abhebt. Die Randbereiche der Parkflächenmarkierungen weisen eine optisch wahrnehmbare lineare Grenzstruktur in der Umgebungs-Bildaufnahme auf.Parking area markings are often applied to the driving level with a colorant, so that the parking area marking stands out visually, in particular due to a different color and / or brightness, from the background of the driving level. The edge areas of the parking area markings have an optically perceptible linear boundary structure in the surrounding image recording.
Optisch wahrnehmbaren linearen Grenzstrukturen können mit verschiedenen Verfahren erfasst werden. Bevorzugt werden optisch wahrnehmbare Grenzstrukturen in Form von Kanten in einer Umgebungs-Bildaufnahme erfasst. Kanten können durch Auswertung von Gradienten einer oder mehrerer Bildinformationen erfasst werden. Ein Gradient kann insbesondere durch einen Vergleich benachbarter Bildinformationen in einer Bildaufnahme berechnet werden.Visually perceptible linear boundary structures can be recorded using various methods. Optically perceptible boundary structures in the form of edges are preferably recorded in a surrounding image recording. Edges can be captured by evaluating gradients of one or more image information. A gradient can be calculated in particular by comparing neighboring image information in an image recording.
Ein weiterer Schritt des Objekterkennungsverfahrens beinhaltet das Identifizieren mindestens einer Parkfläche auf Basis der mindestens einen erfassten Grenzstruktur. Für eine identifizierte Parkfläche wird ein Parkflächen-Objekt erzeugt. Ein Parkflächen-Objekt kann durch eine elektronisch speicherbare Datenstruktur erzeugt werden.Another step of the object recognition method includes identifying at least one parking area based on the at least one detected boundary structure. A parking area object is generated for an identified parking area. A parking space object can be generated by an electronically storable data structure.
Bevorzugt wird eine identifizierte Parkfläche durch ein Parkflächen-Objekt in einer strukturierten Datenbank zur Verfügung gestellt. Ein Parkflächen-Objekt ist ein virtuelles Modell einer erkannten Parkfläche in der Umgebung des Fahrzeugs. Die Datenstruktur umfasst erfasste Eigenschaften einer identifizierten Parkfläche, insbesondere die Position und/oder Ausrichtung und/oder Breite der Parkfläche. Eine weitere Eigenschaft eines Parkflächen-Objekts kann die Lage innerhalb einer Parkflächen-Gruppe sein. Zusätzlich können Informationen zur Zuverlässigkeit der Erkennung zu einem Parkflächen-Objekt gespeichert sein.An identified parking area is preferably made available by a parking area object in a structured database. A parking area object is a virtual model of a recognized parking area in the vicinity of the vehicle. The data structure includes recorded properties of an identified parking area, in particular the position and / or orientation and / or width of the parking area. Another property of a parking area object can be the location within a parking area group. In addition, information about the reliability of the detection of a parking space object can be stored.
Das Objekterkennungsverfahren umfasst mehrere eigenständige Aspekte. Jeder der Aspekte basiert auf einem eigenständigen Erfindungsgedanken. Die Aspekte können als Teilverfahren des Objekterkennungsverfahrens einzeln oder in Kombination eingesetzt werden. Ein Schritt eines Teilverfahrens kann einem Schritt des Objekterkennungsverfahrens neben- oder untergeordnet werden. In einer bevorzugten Ausführungsform bauen die Teilverfahren aufeinander auf. Insbesondere werden die Teilverfahren in einer vorgegebenen Reihenfolge ausgeführt.The object recognition process comprises several independent aspects. Each of the aspects is based on an independent inventive idea. The aspects can be used individually or in combination as part of the object recognition process. A step of a sub-process can be subordinate or subordinate to a step of the object recognition process. In a preferred embodiment, the partial methods build on one another. In particular, the sub-processes are carried out in a predetermined order.
BildvorverarbeitungsverfahrenImage preprocessing process
Ein eigenständiger Aspekt dieser Offenbarung ist ein Bildvorverarbeitungsverfahren. Das Bildvorverarbeitungsverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 2. In diesem Teilverfahren wird ein Verarbeitungsausschnitt in einer Umgebungs-Bildaufnahme bestimmt.An independent aspect of this disclosure is an image preprocessing process. The image preprocessing method comprises the characterizing features of
Ein Verarbeitungsausschnitt umfasst ein oder mehrere Abtastsegmente umfasst. Das Erfassen der mindestens einen optisch wahrnehmbaren Grenzstruktur erfolgt innerhalb des Verarbeitungsausschnitts. Der Verarbeitungsausschnitt kann insbesondere für mehrere Bildaufnahmen jeweils erneut bestimmt werden. Der Verarbeitungsausschnitt ist dynamisch, d.h. der Verarbeitungsausschnitt einer ersten Bildaufnahme kann sich von Verarbeitungsausschnitt einer später aufgenommenen zweiten Bildaufnahme unterscheiden.A processing section comprises one or more scan segments. The at least one optically perceptible boundary structure is detected within the processing section. The processing section can be redetermined in particular for several image recordings. The processing section is dynamic, i.e. the processing section of a first image recording can differ from the processing section of a second image recording taken later.
Ein Verarbeitungsausschnitt definiert einen Bereich einer Umgebungs-Bildaufnahme. Dieser Bereich kann aus einem oder mehreren Teilen bestehen. Bevorzugt umfasst ein Verarbeitungsausschnitt eine wesentlich kleinere Menge an Bildinformationen als die gesamte Umgebungs-Bildaufnahme. A processing section defines an area of an environmental image. This area can consist of one or more parts. A processing section preferably comprises a substantially smaller amount of image information than the entire surrounding image recording.
Die Bestimmung des Verarbeitungsausschnitts hat den Vorteil, dass die zu verarbeitende Datenmenge für weitere Verarbeitungsschritte reduziert wird. Die Bestimmung des Verarbeitungsausschnitts erfordert insbesondere einen geringeren Rechenaufwand als die Weiterverarbeitung der vom Verarbeitungsausschnitt ausgeschlossenen Bildinformationen.Determining the processing section has the advantage that the amount of data to be processed is reduced for further processing steps. The determination of the processing section in particular requires less computing effort than the further processing of the image information excluded from the processing section.
Eine Verarbeitung von Bildinformationen kann auf den Verarbeitungsausschnitt beschränkt werden. Ein Verarbeitungsausschnitt wird bevorzugt um Bereiche einer Umgebungs-Bildaufnahme gebildet, in denen optisch wahrnehmbare lineare Grenzstrukturen liegen. In diesen Bereichen sind mit erhöhter Wahrscheinlichkeit Parkflächenmarkierungen abgebildet. Andere Bereiche sollen nach Möglichkeit nicht Teil des Verarbeitungsausschnitts sein. Die zu verarbeitende Datenmenge soll möglichst klein sein. Das Erfassen der mindestens einen optisch wahrnehmbaren Grenzstruktur erfolgt bevorzugt oder ausschließlich innerhalb des Verarbeitungsausschnitts.Processing of image information can be limited to the processing section. A processing section is preferably formed around areas of a surrounding image recording in which there are optically perceptible linear boundary structures. Parking space markings are more likely to be shown in these areas. If possible, other areas should not be part of the processing section. The amount of data to be processed should be as small as possible. The at least one optically perceptible boundary structure is detected preferably or exclusively within the processing section.
Das Bestimmen des Verarbeitungsausschnitts umfasst die folgenden Schritte, die ein oder mehrfach ausgeführt werden können.Determining the processing section comprises the following steps, which can be carried out one or more times.
Ein Schritt beinhaltet das Definieren von Abtastsegmenten. Ein Abtastsegment umfasst einen Teilbereich einer Umgebungs-Bildaufnahme. Ein Abtastsegment kann insbesondere durch Form und/oder Größe bestimmt sein. Bevorzugt werden rechteckige Abtastsegmente mit vorbestimmter Kantenlänge in Pixeln definiert.One step involves defining scan segments. A scanning segment comprises a partial area of an environmental image recording. A scan segment can be determined in particular by shape and / or size. To be favoured rectangular scan segments with a predetermined edge length defined in pixels.
Aus einer Auswahl bestimmter Abtastsegmente kann der Verarbeitungsausschnitt gebildet werden. Die Abtastsegmente dienen der lokalen Verarbeitung von Bildinformationen zu Ermittlung deren wahrscheinlichen Relevanz für die Erkennung von Parkflächen. Ein Abtastsegment kann gedanklich wie ein Fenster in der Bildaufnahme verschoben werden. Abtastsegmente können einzeln erzeugt werden und/oder an eine definierte Position verschoben werden. Ein Abtastsegment kann auch durch eine bestimmte Auswahl an Bildinformationen definiert werden.The processing section can be formed from a selection of certain scanning segments. The scan segments are used for the local processing of image information to determine its probable relevance for the detection of parking areas. A scanning segment can be moved in the image like a window in the image acquisition. Scan segments can be generated individually and / or moved to a defined position. A scan segment can also be defined by a certain selection of image information.
Ein Abtastsegment kann beispielsweise einen Teilbereich von 20 ×20 oder 100 ×100 Pixeln umfassen. Die einzelnen Abtastsegmente sind bevorzugt regelmäßig über die Umgebungs-Bildaufnahme oder einen vorgegebenen Ausschnitt der Umgebungs-Bildaufnahme verteilt.For example, a scan segment can comprise a partial area of 20 × 20 or 100 × 100 pixels. The individual scanning segments are preferably regularly distributed over the surrounding image recording or a predetermined section of the surrounding image recording.
In einer bevorzugten Ausführungsform überlappen sich benachbarte Abtastsegmente. Insbesondere können Abtastsegmente in regelmäßigen Abständen in Horizontal- und Vertikalrichtung der Umgebungs-Bildaufnahme verteilt werden. In Vertikalrichtung können die Abtastsegmente direkt aneinander angrenzen. In Horizontalrichtung können sich die Abtastsegmente überlappen. Alternativ können die Abtastsegmente auch in beiden Richtungen aneinander angrenzen oder sich überlappen. Auch ein Angrenzen oder Überlappen in der jeweils anderen Richtung ist möglich. In a preferred embodiment, adjacent scan segments overlap. In particular, scanning segments can be distributed at regular intervals in the horizontal and vertical directions of the surrounding image recording. The scanning segments can directly adjoin one another in the vertical direction. The scan segments can overlap in the horizontal direction. Alternatively, the scanning segments can also adjoin one another in both directions or overlap. Adjacent or overlapping in the other direction is also possible.
Ein weiterer Schritt beinhaltet das Anwenden eines Kantenfilters auf die Umgebungs-Bildaufnahme oder ein Abtastsegment zur Ermittlung von Kanten-Merkmalen.Another step involves applying an edge filter to the surrounding image acquisition or a scanning segment to determine edge features.
Mit einem Kantenfilter werden optisch wahrnehmbare Grenzstrukturen in einer Bildaufnahme hervorgehoben. Als Kantenfilter kann beispielsweise ein Sobel-Filter oder ein anderer dem Fachmann bekannter Kantenfilter eingesetzt werden.With an edge filter, optically perceptible boundary structures are highlighted in an image. For example, a Sobel filter or another edge filter known to the person skilled in the art can be used as the edge filter.
Ein Kantenfilter kann insbesondere auf eine Gruppe von Pixeln innerhalb eines oder mehrerer Abtastsegmente angewendet werden. Die bei der Anwendung des Filters erzeugten Kanteninformationen können in einer geordneten Datenstruktur abgespeichert werden, insbesondere einem Pixelraster. Eine so erzeugte Kanteninformation ist einem bestimmten Pixel oder einer bestimmten Gruppe von Pixeln der Umgebungs-Bildaufnahme zuordenbar. Bevorzugt werden die Kanteninformationen als zusätzliche Bildinformationen in demselben oder einem zusätzlichen Pixelraster abgespeichert. Die Kanteninformationen können insbesondere in Form eines oder mehrerer Gradientenbilder für eine Umgebungs-Bildaufnahme vorliegen.An edge filter can be applied in particular to a group of pixels within one or more scan segments. The edge information generated when the filter is used can be stored in an ordered data structure, in particular in a pixel grid. Edge information generated in this way can be assigned to a specific pixel or a specific group of pixels of the surrounding image recording. The edge information is preferably stored as additional image information in the same or an additional pixel grid. The edge information can be present in particular in the form of one or more gradient images for an environmental image recording.
Zur Ermittlung von Kanten-Merkmalen werden die mittels eines Kantenfilters erzeugten Kanteninformationen ausgewertet. Ein Kanten-Merkmal kann beispielsweise ein Gradientwert oberhalb eines bestimmten Schwellenwertes sein. Dem Fachmann sind zur Bestimmung von Kantenmerkmalen verschiedene Techniken bekannt. Kanten-Merkmale können insbesondere einem bestimmten Pixel in einer Umgebungs-Bildaufnahme zugeordnet sein. Ein Pixel weist wiederum eine durch das Pixelraster bekannte Bildposition auf.To determine edge characteristics, the edge information generated using an edge filter is evaluated. An edge feature can be, for example, a gradient value above a certain threshold. Various techniques are known to those skilled in the art for determining edge features. Edge features can in particular be assigned to a specific pixel in a surrounding image recording. A pixel in turn has an image position known from the pixel grid.
Ein weiterer Schritt umfasst das richtungsbezogene Zählen von Kanten-Merkmalen in Bezug auf mindestens eine vorbestimmte Richtung in einem Abtastsegment.Another step includes the directional counting of edge features with respect to at least one predetermined direction in a scan segment.
Dieser Schritt wird bevorzugt für jedes Abtastsegment durchgeführt. Beim richtungsbezogenen Zählen werden Kanten-Merkmale entlang einer vorbestimmten Richtung gezählt. Eine Richtung weist einen vorbestimmten Winkel im Bildkoordinatensystem der Umgebungs-Bildaufnahme auf.This step is preferably carried out for each scan segment. In directional counting, edge features are counted along a predetermined direction. One direction has a predetermined angle in the image coordinate system of the surrounding image recording.
Die Zählung kann innerhalb eines Zählkorridors mit einer vorbestimmten Breite in Pixeln durchgeführt werden. Außerdem kann die Zählung in mehreren solcher Zählkorridore durchgeführt werden, die parallel zueinander versetzt sind.The counting can be carried out within a counting corridor with a predetermined width in pixels. In addition, the count can be carried out in a number of such counting corridors which are offset parallel to one another.
Es können beispielsweise in einem Abtastsegment jeweils 5 parallele Zählkorridore zu mehreren Vorgegeben Richtungen bzw. Winkeln im Bildkoordinatensystem bestimmt werden.For example, 5 parallel counting corridors for several predetermined directions or angles can be determined in the image coordinate system in a scanning segment.
Das richtungsbezogene Zählen von Kanten-Merkmalen ist eine besonders effiziente Weise lineare Grenzstrukturen zu erkennen.Directional counting of edge features is a particularly efficient way of recognizing linear boundary structures.
Bevorzugt wird das Ergebnis einer Zählung in einer richtungsbezogenen Summe abgespeichert. Wenn in einer Umgebungs-Bildaufnahme in einem bestimmten Teilbereich Parkflächenmarkierungen abgebildet sind, werden mit hoher Wahrscheinlichkeit in diesem Bereich viele Kanten-Merkmale in einer bestimmten Richtung hintereinander liegen. Beim richtungsbezogenen Zählen werden in einer richtungsbezogenen Summe nur Kanten-Merkmale auf einer im Wesentlichen linearen Struktur erfasst. Kanten-Merkmale auf einer gekrümmten Struktur hingegen verteilen sich auf mehrere richtungsbezogene Summen. Einzelne hohe richtungsbezogene Summen sprechen daher für eine im Wesentlichen lineare Grenzstruktur in diesem Abtastsegment. Diese Methode kann besonders recheneffizient durchgeführt werden und ist daher besonders für Echtzeitanwendungen geeignet.The result of a count is preferably stored in a direction-related sum. If parking area markings are imaged in a certain partial area in a surrounding image recording, it is very likely that many edge features will lie one behind the other in this area in this area. In direction-related counting, only edge features on an essentially linear structure are recorded in a direction-related sum. Edge features on a curved structure, however, are distributed over several direction-related sums. Individual high direction-related sums therefore speak for an essentially linear boundary structure in this scanning segment. This method can be carried out particularly computationally and is therefore particularly suitable for real-time applications.
Ein weiterer Schritt beinhaltet das Aufnehmen eines Abtastsegments in den Verarbeitungsausschnitt, wenn eine richtungsbezogene Summe der Kanten-Merkmale in diesem Abtastsegment einen Verarbeitungsrelevanz-Schwellenwert überschreitet. Another step includes including a scan segment in the processing section when a directional sum of the edge features in that scan segment exceeds a processing relevance threshold.
Der Verarbeitungsausschnitt wird bevorzugt aus Abtastsegmenten gebildet, in denen eine richtungsbezogene Zählung eine richtungsbezogene Summe oberhalb des Verarbeitungsrelevanz-Schwellenwerts ergibt. Alternativ oder zusätzlich können auch andere Aufnahmekriterien über die Aufnahme eines Abtastsegments in den Verarbeitungsausschnitt entscheiden. Beispielsweise können zusätzlich benachbarte Abtastsegmente zu bereits aufgenommenen Abtastsegmenten in den Verarbeitungsausschnitt aufgenommen werden.The processing section is preferably formed from scanning segments in which a direction-related count yields a direction-related sum above the processing relevance threshold. Alternatively or additionally, other recording criteria can also decide on the inclusion of a scanning segment in the processing section. For example, adjacent scan segments in addition to previously recorded scan segments can be included in the processing section.
MerkmalsextraktionsverfahrenFeature extraction process
Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Merkmalsextraktionsverfahren. Dieses Merkmalsextraktionsverfahren kann als Teilverfahren des Objekterkennungsverfahrens eingesetzt werden. Das Merkmalsextraktionsverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 3.Another standalone aspect of this disclosure is a feature extraction process. This feature extraction method can be used as a sub-method of the object recognition method. The feature extraction method comprises the characterizing features of claim 3.
Das Merkmalsextraktionsverfahren dient der Ermittlung charakteristischer Merkmale einer Umgebungs-Bildaufnahme, die mit erhöhter Wahrscheinlichkeit auf oder an einer Abbildung eines Markierungsstreifens liegen. Ein Merkmal ist eine charakteristische Bildinformation oder eine Kombination charakteristischer Bildinformationen. Ein Merkmal ist einem oder einer Gruppe von Pixeln zuordenbar. Ein Merkmal weist direkt oder indirekt über einen zuordenbaren Pixel eine Position im Bildkoordinatensystem auf.The feature extraction method is used to determine characteristic features of a surrounding image that are more likely to lie on or on an image of a marking strip. A feature is characteristic image information or a combination of characteristic image information. A feature can be assigned to one or a group of pixels. A feature has a position in the image coordinate system directly or indirectly via an assignable pixel.
Ein Merkmal stellt in der Regel ein für die weitere Bildverarbeitung, insbesondere die Objekterkennung, interessantes Bildelement dar. Zu erkennende Objekte weisen in der Regel charakteristische Merkmale in einer Bilddarstellung auf, die maschinell (wieder-)erkennbar sind. Mit einem Merkmalsextraktionsverfahren sollen solche charakteristischen Merkmale ermittelt werden. Um ein Merkmal automatisiert zu ermitteln, können Bildinformationen maschinell ausgewertet werden. Für die Erkennung von Markierungsstreifen ist die Ermittlung von Kanten-Merkmalen besonders vorteilhaft.A feature generally represents an image element that is interesting for further image processing, in particular object recognition. Objects to be recognized generally have characteristic features in an image display that are (machine) recognizable by machine. Such characteristic features are to be determined using a feature extraction method. In order to automatically determine a feature, image information can be evaluated automatically. The determination of edge features is particularly advantageous for the detection of marking strips.
Gegenstand des Merkmalsextraktionsverfahrens ist das Auffinden eines oder bevorzugt einer Mehrzahl von Kanten-Merkmal-Paaren. Ein Kanten-Merkmal, für das ein Kanten-Merkmal-Paar auffindbar ist, liegt mit erhöhter Wahrscheinlichkeit auf einem Markierungsstreifen einer Parkfläche. Es ist daher vorteilhaft, gezielt nach Kanten-Merkmal-Paaren zu suchen.The object of the feature extraction method is to find one or preferably a plurality of edge-feature pairs. An edge feature for which an edge feature pair can be found is more likely to lie on a marking strip of a parking area. It is therefore advantageous to search specifically for edge-feature pairs.
Ein Schritt des Verfahrens beinhaltet das Ermitteln oder Beziehen von Kanten-Merkmalen in einer Umgebungs-Bildaufnahme. Kanten-Merkmale können durch Anwendung eines oder mehrerer Kantenfilter ermittelt werden. Alternativ oder zusätzlich können Kanten-Merkmale von einem anderen Modul oder einer sonstigen Quelle bezogen werden.One step of the method involves determining or relating edge features in an environmental image recording. Edge characteristics can be determined using one or more edge filters. Alternatively or additionally, edge features can be obtained from another module or another source.
Besonders charakteristisch für einen Markierungsstreifen sind die Übergänge zwischen einem in der Regel dunklen oder grauen Untergrund und einem weißen (oder andersfarbigen) Markierungsstreifen. Bildaufnahmen solcher Übergänge weisen in der Regel eine Kante zwischen zwei Flächen im Bild auf. Eine an einer Kante angrenzende Fläche weist in der Regel eine im Wesentlichen einheitliche Helligkeit oder Farbe auf. Eine Kante in einer Umgebungs-Bildaufnahme ist durch Kanten-Merkmale gekennzeichnet.The transitions between a generally dark or gray background and a white (or other colored) marking strip are particularly characteristic of a marking strip. Image recordings of such transitions usually have an edge between two surfaces in the image. A surface adjacent to an edge generally has an essentially uniform brightness or color. An edge in a surrounding image recording is characterized by edge features.
In einem weiteren Schritt wird ein Kanten-Merkmal als Bezugs-Kanten-Merkmal bestimmt. Für ein Bezugs-Kanten-Merkmal kann anschließend versucht werden, ein Kanten-Merkmal-Paar aufzufinden.In a further step, an edge feature is determined as the reference edge feature. For a reference edge feature, you can then try to find an edge feature pair.
Bei der Ermittlung von Kanten-Merkmalen werden a priori bekannte Eigenschaften eines Markierungsstreifens herangezogen. Ein üblicher Markierungsstreifen weist zwei gegenüberliegende Ränder auf. Kanten-Merkmale auf einem der Ränder unterscheiden sich von Kanten-Merkmalen auf dem gegenüberliegenden Rand des Markierungsstreifens. Es ist zu erwarten, dass an einer Seite des Streifens ein Übergang von hell nach dunkel vorliegt und auf der gegenüberliegenden Seite ein entgegengesetzter Übergang. Bei länderspezifischen Unterschieden von Straßenmarkierungen können auch andere charakteristische Übergänge vorliegen.Known properties of a marking strip are used a priori when determining edge features. A common marking strip has two opposite edges. Edge features on one of the edges differ from edge features on the opposite edge of the marking strip. It is expected that there will be a transition from light to dark on one side of the strip and an opposite transition on the opposite side. If there are country-specific differences in road markings, there may also be other characteristic transitions.
Außerdem weisen Markierungsstreifen eine übliche Breite innerhalb eines zu erwartenden Intervalls auf. Üblich sind Markierungsstreifen mit einer Breite von 5 bis 20 cm. In Abhängigkeit von der Aufnahmetechnik und dem Abstand des Markierungsstreifens zum eingesetzten Umgebungssensor weist auch die Darstellung eines Markierungsstreifens in einer Umgebungs-Bildaufnahme eine Breite innerhalb eines zu erwartenden Intervalls in Bildkoordinaten auf. Es ist daher zu erwarten, dass zu einem Kanten-Merkmal an einem Rand eines Markierungsstreifens ein zugehöriges Gegen-Kanten-Merkmal auf der gegenüberliegenden Seite des Markierungsstreifens existiert. Aus diesen beiden Kanten-Merkmalen kann ein Kanten-Merkmal-Paar gebildet werden.In addition, marking strips have a customary width within an expected interval. Marking strips with a width of 5 to 20 cm are common. Depending on the recording technique and the distance of the marking strip to the environmental sensor used, the representation of a marking strip in an environmental image recording also has a width within an expected interval in image coordinates. It is therefore to be expected that for an edge feature on an edge of a marking strip there is an associated counter-edge feature on the opposite side of the marking strip. An edge feature pair can be formed from these two edge features.
Zur Ermittlung von Kanten-Merkmal-Paaren ist es vorteilhaft, von jeweils einem Bezugs-Kanten-Merkmal aus einer Mehrzahl von bekannten Kanten-Merkmalen ausgehend ein zugehöriges Gegen-Kanten-Merkmal zu suchen. Das Bezugs-Kanten-Merkmal bildet den Ausgangspunkt für die Suche.In order to determine pairs of edge features, it is advantageous to proceed from one reference edge feature from a plurality of known edge features, with an associated counterpart. Edge feature to look for. The reference edge characteristic forms the starting point for the search.
Ausgehend von einem Bezugs-Kanten-Merkmal wird ein zweites Kanten-Merkmal als zugehöriges Gegen-Kanten-Merkmal aufgesucht. Das Aufsuchen geschieht entlang einer vorgegebenen Suchrichtung. Bevorzugt wird entlang der Horizontalrichtung oder einer Pixelzeile der Umgebungs-Bildaufnahme gesucht, wenn Markierungsstreifen einer quer zur Fahrtrichtung liegenden Parkfläche erkannt werden sollen. Alternativ oder zusätzlich können auch andere Suchrichtungen z.B. entlang der Vertikalen oder einer Diagonalen in der Umgebungs-Bildaufnahme nach einem Gegen-Kanten-Merkmal gesucht werden. Eine Umgebungs-Bildaufnahme weist eine erste und eine zweite Bildachse auf. Die erste Bildachse ist bevorzugt eine liegende Achse. Die zweite Bildachse ist bevorzugt eine aufrechte Bildachse.Starting from a reference edge feature, a second edge feature is sought as the associated counter-edge feature. The search takes place along a predetermined search direction. A search is preferably carried out along the horizontal direction or a pixel line of the surrounding image recording if marking strips of a parking area lying transverse to the direction of travel are to be recognized. Alternatively or additionally, other search directions e.g. along the vertical or a diagonal in the surrounding image acquisition for a counter-edge feature. A surrounding image recording has a first and a second image axis. The first image axis is preferably a lying axis. The second image axis is preferably an upright image axis.
Es ist besonders vorteilhaft, innerhalb eines vorgegebenen Abstands in der Umgebungs-Bildaufnahme nach einem Gegen-Kanten-Merkmal zu suchen. Der vorgegebene Abstand orientiert sich an der zu erwartenden Breite eines Markierungsstreifens. Außerdem können Abbildungsparameter der Aufnahmetechnik der Umgebungs-Bildaufnahme herangezogen werden. Beispielsweise kann ausgehend von einem Bezugs-Kanten-Merkmal innerhalb eines Abstands von 15 oder 50 Pixeln nach einem Gegen-Kanten-Merkmal gesucht werden.It is particularly advantageous to search for a counter-edge feature in the surrounding image recording within a predetermined distance. The specified distance is based on the expected width of a marking strip. In addition, imaging parameters of the recording technique of the surrounding image recording can be used. For example, a reference edge feature can be searched for within a distance of 15 or 50 pixels for a counter edge feature.
Vorteilhafterweise wird das Aufsuchen in nur einer Suchrichtung, insbesondere nach links oder rechts laufend, in der Umgebungs-Bildaufnahme durchgeführt. The search is advantageously carried out in only one search direction, in particular running to the left or right, in the surrounding image recording.
Wenn ein Gegen-Kanten-Merkmal für ein Bezugs-Kanten-Merkmal auffindbar ist, wird dieses Gegen-Kanten-Merkmal zum Bezugs-Kanten-Merkmal unter Bildung eines Kanten-Merkmal-Paares zugewiesen. Die Bildung eines Paares kann durch Vorsehen eines Verweises von einem Merkmal zum anderen Merkmal geschehen. Alternativ oder zusätzlich kann eine zusätzliche Datenstruktur für ein Kanten-Merkmal-Paar geschaffen werden. Es ist besonders vorteilhaft, bei der Weiterverarbeitung bevorzugt oder ausschließlich Kanten-Merkmale zu berücksichtigen, für die ein Gegen-Kanten-Merkmal auffindbar ist. Kanten-Merkmale oder Kanten-Merkmal-Paare können für die Weiterverarbeitung freigegeben werden. Alternativ oder zusätzlich können Kanten-Merkmale, für die kein Kanten-Merkmal-Paar auffindbar ist, gelöscht, von einer Weiterverarbeitung ausgeschlossen oder nachrangig behandelt werden.If a counter-edge feature can be found for a reference-edge feature, this counter-edge feature is assigned to the reference-edge feature to form a pair of edge features. Pairing can be done by providing a reference from one feature to another feature. Alternatively or additionally, an additional data structure can be created for an edge feature pair. It is particularly advantageous to preferentially or exclusively consider edge features for which a counter-edge feature can be found during further processing. Edge characteristics or edge-characteristic pairs can be released for further processing. Alternatively or additionally, edge features for which no pair of edge features can be found can be deleted, excluded from further processing, or treated subordinately.
FilterverfahrenFiltering method
Ein weiterer wesentlicher Aspekt dieser Offenbarung ist ein Filterverfahren. Das Filterverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 4.Another essential aspect of this disclosure is a filtering method. The filtering method comprises the characterizing features of claim 4.
Das Filterverfahren beinhaltet das Auffinden von Kanten-Punkten, die in der Fahrebene des Fahrzeugs liegen. Mittels dieses Verfahrens können Kanten-Merkmale in einer Umgebungs-Bildaufnahme, die zu einer Abbildung eines Markierungsstreifens auf Bodenhöhe gehören, von anderen Kanten-Merkmalen unterschieden werden, die nicht auf Bodenhöhe liegen. Es können beispielsweise Kanten-Merkmale an einem Fahrzeug oder einem Straßenschild in Im Höhe über dem Boden von Kanten-Merkmalen an einer Parkfläche unterschieden werden.The filtering method involves finding edge points that lie in the driving plane of the vehicle. Using this method, edge features in an environmental image recording that belong to an image of a marking strip at floor level can be distinguished from other edge features that are not at floor level. For example, edge features on a vehicle or a road sign in height above the ground can be distinguished from edge features on a parking area.
Dieses Filterverfahren kann vorteilhafterweise in Kombination mit dem vorgenannten Merkmalsextraktionsverfahren eingesetzt werden. Es kann beispielsweise vorkommen, dass Kanten-Merkmale an einem weißen Streifen auf der Karosserie eines parkenden Fahrzeuges bei einer Merkmalsextraktion erfasst werden, die maschinell nur schwer von Kanten-Merkmalen an einem Markierungsstreifen einer Parkfläche unterscheidbar sind. Ein geeignetes Unterscheidungskriterium ist die Höhe eines Punktes der Umgebung des Fahrzeugs in Bezug auf die Fahrebene.This filtering method can advantageously be used in combination with the aforementioned feature extraction method. For example, it can happen that edge features on a white stripe on the body of a parked vehicle are detected during a feature extraction that are difficult to distinguish mechanically from edge features on a marking stripe of a parking area. A suitable distinguishing criterion is the height of a point in the vicinity of the vehicle in relation to the driving level.
In einer zweidimensionalen Umgebungs-Bildaufnahme liegen nur reduzierte Informationen der dreidimensionalen Umgebung vor. Es erfordert besondere technische Maßnahmen, um aus einer zweidimensionalen Umgebungs-Bildaufnahme die Position eines Umgebungspunktes in der Umgebung zu ermitteln. Hierfür sind verschiedene Verfahren bekannt, die häufig hohe Anforderungen an die eingesetzte Sensorik (z.B. Stereo-Kameras) stellen. Der besondere Vorteil des hier offenbarten Verfahrens liegt in der sehr recheneffizienten Ausführung und hohen Kompatibilität mit verschiedenen Umgebungssensoren.In a two-dimensional environment image recording, only reduced information of the three-dimensional environment is available. It requires special technical measures to determine the position of a surrounding point in the surroundings from a two-dimensional picture of the surroundings. Various methods are known for this, which often place high demands on the sensors used (e.g. stereo cameras). The particular advantage of the method disclosed here lies in the very computationally efficient design and high compatibility with various environmental sensors.
Ein Ziel des Verfahrens ist es, Kanten-Punkte zu ermitteln, die mit hoher Wahrscheinlichkeit auf Bodenhöhe in der Fahrebene des Fahrzeugs liegen. Für die Weiterverarbeitung werden bevorzugt Kanten-Punkte freigegeben, die in der Fahrebene des Fahrzeugs liegen. One aim of the method is to determine edge points that are highly likely to be at ground level in the driving plane of the vehicle. Edge points that lie in the driving plane of the vehicle are preferably released for further processing.
Ein Schritt des Verfahrens beinhaltet das Ermitteln von Kanten-Merkmalen mit zugehöriger Bild-Position in einer Umgebungs-Bildaufnahme. Alternativ oder zusätzlich können Kanten-Merkmale auch von einem anderen Modul oder einer sonstigen Quelle bezogen werden.One step of the method includes the determination of edge features with an associated image position in a surrounding image recording. Alternatively or additionally, edge features can also be obtained from another module or another source.
Für mind. ein Kanten-Merkmal wird ein zugehöriger Kanten-Punkt in einem Bewegungsraum-Koordinatensystem bestimmt.For at least one edge feature, an associated edge point is determined in a movement space coordinate system.
Ein Bewegungsraum-Koordinatensystem ist ein mind. zweidimensionales Koordinatensystem im Bewegungsraum des Fahrzeugs. Bevorzugt wird ein dreidimensionales Koordinatensystem verwendet, das in Bezug auf das Fahrzeug festgelegt ist und bei einer Bewegung des Fahrzeugs in seiner Umgebung mit dem Fahrzeug mitgeführt wird. Bevorzugt wird ein Fahrzeug-Koordinatensystem verwendet, das auf der Hinterachse des Fahrzeugs liegt. A movement space coordinate system is a at least two-dimensional coordinate system in the movement space of the vehicle. A three-dimensional coordinate system is preferably used, which is fixed in relation to the vehicle and is carried along with the vehicle when the vehicle moves in its surroundings. A vehicle coordinate system that lies on the rear axle of the vehicle is preferably used.
Alternativ kann das gesamte Objekterkennungsverfahren auch mit einem Bewegungsraum-Koordinatensystem ausgeführt werden, das in Bezug auf die Umgebung des Fahrzeugs festgelegt ist („Welt-Koordinatensystem“). In diesem Fall bedarf es einer Lokalisierung des Fahrzeugs innerhalb dieses Welt-Koordinatensystems. Dem Fachmann sind verschiedene Verfahren zur Übertragung des offenbarten Verfahrens auf ein umgebungsfestes Welt-Koordinatensystem bekannt. Alle hier offenbarten Schritte können vom Fachmann analog mit einem umgebungsfesten Bewegungsraum-Koordinatensystem ausgeführt werden.Alternatively, the entire object detection method can also be carried out with a movement space coordinate system that is defined in relation to the surroundings of the vehicle (“world coordinate system”). In this case, the vehicle must be localized within this world coordinate system. Various methods for transferring the disclosed method to an environmentally stable world coordinate system are known to the person skilled in the art. All steps disclosed here can be carried out analogously by a person skilled in the art with an environment-fixed movement space coordinate system.
Die Bestimmung eines Kanten-Punktes zu einem Kanten-Merkmal in einer Umgebungs-Bildaufnahme geschieht unter der (mathematischen) Annahme, dass der Kanten-Punkt in einer vorgegebenen Fahrebene liegt. Dies ist besonders vorteilhaft für den Einsatz des Verfahrens mit Bildaufnahmen einer Monokamera. Bildpunkte einer zweidimensionalen Umgebungs-Bildaufnahme können mittels bekannter Kameraparameter und der zusätzlichen Annahme einer Raumebene, auf der in der Umgebungs-Bildaufnahme abgebildete Punkt liegt, in ein dreidimensionales Bewegungsraum-Koordinatensystem transformiert werden.The determination of an edge point for an edge feature in an environmental image recording takes place on the (mathematical) assumption that the edge point lies in a predetermined driving plane. This is particularly advantageous for the use of the method with image recordings from a mono camera. Pixels of a two-dimensional environment image recording can be transformed into a three-dimensional movement space coordinate system using known camera parameters and the additional assumption of a spatial plane on which the point imaged in the environment image recording lies.
Wenn die Annahme der Fahrebene für einen in der Umgebungs-Bildaufnahme abgebildeten Punkt der Umgebung des Fahrzeugs zutrifft, kann durch diese Transformation die Position des abgebildeten Punktes im Bewegungsraum-Koordinatensystem bestimmt bzw. geschätzt werden. Wenn die Annahme nicht zutrifft, ist die bestimmte Position fehlerbehaftet. Während einer Bewegung des Fahrzeugs wird sich der Fehler bei der Bestimmung der Position durch die Veränderung der Kameraperspektive mit hoher Wahrscheinlichkeit verändern. Bei einer Betrachtung mehrerer zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen während einer Bewegung des Fahrzeugs kann dieser Effekt zur Unterscheidung von Kanten-Merkmalen auf Höhe der Fahrebene gegenüber Kanten-Merkmalen ober- oder unterhalb der Fahrebene genutzt werden.If the assumption of the driving plane applies to a point of the surroundings of the vehicle which is imaged in the surroundings image recording, the transformation of the position of the depicted point in the movement space coordinate system can be determined or estimated by this transformation. If the assumption is incorrect, the particular position is faulty. During a movement of the vehicle, the error in determining the position is very likely to change due to the change in the camera perspective. When looking at several temporally offset surrounding image recordings during a movement of the vehicle, this effect can be used to differentiate between edge features at the level of the driving level and edge features above or below the driving level.
Ein weiterer Schritt beinhaltet das akkumulieren von Kanten-Punkten im Bewegungsraum-Koordinatensystem während einer Bewegung des Fahrzeugs über mind. zwei nacheinander aufgenommene Umgebungs-Bildaufnahmen hinweg.A further step involves the accumulation of edge points in the movement space coordinate system during a movement of the vehicle over at least two successively recorded surroundings image recordings.
Beim Akkumulieren von Kanten-Punkten werden Informationen aus mehreren Umgebungs-Bildaufnahmen, die zu unterschiedlichen Zeitpunkten aufgenommen wurden, in einem gemeinsamen Bewegungsraum-Koordinatensystem gesammelt.When edge points are accumulated, information from several surrounding image recordings, which were recorded at different points in time, are collected in a common movement space coordinate system.
Während der Bewegung des Fahrzeugs verschiebt sich ein in der Umgebung räumlich festgelegter Markierungsstreifen in Bezug auf das Fahrzeug. Entsprechend verschiebt sich die Abbildung dieses Markierungsstreifens in zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen. Auch das Bewegungsraum-Koordinatensystem wird während der Bewegung des Fahrzeugs in Bezug auf die Umgebung verschoben.During the movement of the vehicle, a marking strip that is spatially defined in the surroundings shifts with respect to the vehicle. Correspondingly, the image of this marking strip shifts in surrounding image recordings taken at different times. The movement space coordinate system is also shifted with respect to the environment during the movement of the vehicle.
Zwischen zwei zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen werden Kanten-Punkte aus einer älteren Umgebungs-Bildaufnahme entsprechend der Eigenbewegung des Fahrzeugs zwischen den Aufnahmezeitpunkten im mitbewegten Bewegungsraum-Koordinatensystem verschoben. Der Einfluss der Eigenbewegung des Fahrzeugs auf die Position eines Kanten-Punkts im Bewegungsraum-Koordinatensystem wird somit kompensiert. Informationen zur Eigenbewegung des Fahrzeugs können aus einer externen Quelle, z.B. in einem Bus-Netzwerk des Fahrzeugs, bezogen werden. Alternativ oder zusätzlich können Bewegungsinformationen auch aus Umgebungs-Bildaufnahmen generiert werden.Edge points from an older surrounding image recording are shifted between two time-taken surroundings image recordings in accordance with the vehicle's own movement between the recording times in the moving space coordinate system moved along. The influence of the vehicle's own movement on the position of an edge point in the movement space coordinate system is thus compensated. Information about the vehicle's own movement can be obtained from an external source, e.g. in a bus network of the vehicle. Alternatively or additionally, motion information can also be generated from surrounding image recordings.
Um Bildinformationen, insbesondere Kanten-Punkte, aus mehreren zeitlich versetzt aufgenommenen Bildaufnahmen verwenden zu können, werden ältere Kanten-Punkte in ein jüngeres Bewegungsraum-Koordinatensystem transformiert. Eine solche Transformation entspricht einer Verschiebung der Kante-Punkte in einem mitgeführten Fahrzeug-Koordinatensystem.In order to be able to use image information, in particular edge points, from a plurality of image recordings taken at different times, older edge points are transformed into a younger movement space coordinate system. Such a transformation corresponds to a displacement of the edge points in a vehicle coordinate system carried along.
Wenn ein Nähe-Kriterium zwischen einem älteren Kanten-Punkt, der gemäß der Eigenbewegung des Fahrzeugs verschoben wurde, und einem jüngeren Kanten-Punkt erfüllt ist, werden diese beiden Punkte im Bewegungsraum-Koordinatensystem akkumuliert. Beim Akkumulieren wird festgestellt, wie häufig bereits Kanten-Punkte in der Nähe einer bestimmten Stelle der Umgebung erfasst wurden. Es werden somit Messinformationen aus mehreren Bildaufnahmen gesammelt.If a proximity criterion between an older edge point that has been shifted according to the vehicle's own movement and a younger edge point is met, these two points are accumulated in the movement space coordinate system. When accumulating, it is determined how often edge points have already been recorded in the vicinity of a specific point in the environment. Measurement information from several image recordings is thus collected.
Die Bestimmung eines Kanten-Punktes zu einem Kanten-Merkmal in einer Umgebungs-Bildaufnahme entspricht einer Messung bzw. Schätzung einer Umgebungsposition, die zu diesem Kanten-Merkmal zugehörig ist. Das Verschieben eines Kanten-Punktes im Bewegungsraum-Koordinatensystem entspricht einer modellbasierten Prädiktion der gemessenen bzw. geschätzten Position des Kanten-Punktes zu einem späteren Zeitpunkt.The determination of an edge point for an edge feature in a surrounding image recording corresponds to a measurement or estimation of a surrounding position which is associated with this edge feature. Moving one Edge point in the movement space coordinate system corresponds to a model-based prediction of the measured or estimated position of the edge point at a later point in time.
Es ist zu erwarten, dass ein einmal korrekt gemessener Punkt auch in einer darauffolgenden Bildaufnahme wieder gemessen wird - gegebenenfalls an einer gemäß der Eigenbewegung des Fahrzeugs verschobenen Stelle. Die verschobene Position eines Kanten-Punktes im Bewegungsraum-Koordinatensystem ist somit die erwartete Position einer erneuten Messung bzw. Schätzung desselben Umgebungspunktes in einer neuen Umgebungs-Bildaufnahme. It is to be expected that a correctly measured point will also be measured again in a subsequent image acquisition - if necessary at a point shifted according to the vehicle's own movement. The shifted position of an edge point in the movement space coordinate system is thus the expected position of a new measurement or estimation of the same environment point in a new environment image recording.
Wenn die Annahme einer Fahrebene für die Bestimmung eines Kanten-Punktes zutrifft, ist zu erwarten, dass über mehrere Bildaufnahmen hinweg Kanten-Punkte an den jeweils zu erwartenden Positionen im Bewegungsraum-Koordinatensystem im Wesentlichen mit neuen Messungen aufeinander fallen oder nahe zueinander gelegen sind. Ein häufiges Akkumulieren von Kanten-Punkten an einer bestimmten Stelle im Bewegungsraum-Koordinatensystem spricht daher dafür, dass an dieser Stelle eine lineare Grenzstruktur auf Höhe der Fahrebene liegt.If the assumption of a driving plane is correct for the determination of an edge point, it is to be expected that edge points at several positions in the movement space coordinate system to be expected will coincide with one another with new measurements or are close to one another over several image recordings. A frequent accumulation of edge points at a certain point in the movement space coordinate system therefore suggests that there is a linear boundary structure at the level of the driving plane at this point.
Im Falle einer unzutreffenden Annahme einer Fahrebene bei der Bestimmung eines Kanten-Punktes handelt es sich um eine fehlerbehaftete Messung bzw. Schätzung der Position eines Umgebungspunktes. In den meisten Fällen wird eine erneute fehlerbehaftete Messung bzw. Schätzung der Position in einer neuen Umgebungs-Bildaufnahme zu einem späteren Zeitpunkt nach einer Bewegung des Fahrzeugs nicht mit der erwarteten bzw. modellbasiert prädizierten Position aus vorangegangenen Messungen übereinstimmen. Kanten-Punkte zu Kanten-Merkmalen auf demselben Markierungsstreifen in mehreren aufeinander folgenden Umgebungs-Bildaufnahmen werden daher erwartungsgemäß nicht akkumulieren.In the event of an incorrect assumption of a driving plane when determining an edge point, the measurement or estimation of the position of a surrounding point is erroneous. In most cases, a new erroneous measurement or estimation of the position in a new surrounding image recording at a later point in time after a movement of the vehicle will not match the expected or model-based predicted position from previous measurements. Edge points to edge features on the same marking strip in several successive surrounding image recordings are therefore not expected to accumulate.
Ein weiterer Schritt beinhaltet das Identifizieren von Kanten-Punkten, die aufgrund der korrekt getroffenen Annahme bzgl. deren Lage auf der Fahrebene das Nähe-Kriterium zu älteren Kanten-Punkten erfüllen und mit diesen akkumuliert werden. Diese identifizierten Kanten-Punkte werden für die Weiterverarbeitung freigegeben. Alternativ oder zusätzlich können Repräsentanten dieser akkumulierten Kanten-Punkte freigegeben werden. Freigegebene Kanten-Punkte werden bei der Weiterverarbeitung bevorzugt oder ausschließlich berücksichtigt.A further step includes the identification of edge points which, on the basis of the correctly made assumption regarding their position on the driving level, fulfill the proximity criterion to older edge points and are accumulated with them. These identified edge points are released for further processing. Alternatively or additionally, representatives of these accumulated edge points can be released. Released edge points are preferred during further processing or only taken into account.
LinienerkennungsverfahrenLine recognition process
Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Linienerkennungsverfahren. Das Linienerkennungsverfahren dient der Erkennung von Linien-Objekten in einer Menge von Kanten-Punkten. Das Linienerkennungsverfahren kann als Teilverfahren des Objekterkennungsverfahrens ausgeführt werden. Das Linienerkennungsverfahren umfasst die kennzeichnenden Merkmale des Anspruchs 8.Another standalone aspect of this disclosure is a line detection method. The line recognition method is used to recognize line objects in a set of edge points. The line recognition process can be carried out as a sub-process of the object recognition process. The line recognition method comprises the characterizing features of claim 8.
Das Verfahren beinhaltet das Erzeugen von Linien-Objekten in einem Bewegungsraum-Koordinatensystem auf Basis zuvor bestimmter Kanten-Punkte. Bevorzugt wird das Verfahren auf eine Menge von freigegebenen Kanten-Punkten angewendet. Das Erzeugen beinhaltet die folgenden Schritte.The method includes the creation of line objects in a movement space coordinate system based on previously determined edge points. The method is preferably applied to a set of released edge points. The creation includes the following steps.
Es werden zumindest zwei getrennte Punkte-Mengen bezogen, wobei die erste Punkte-Menge Kanten-Punkte eines ersten Typs und die zweite Punkte-Menge Kanten-Punkte eines zweiten Typs umfasst. Typischerweise unterscheiden sich Kanten-Merkmale auf zwei gegenüberliegenden Seiten eines Markierungsstreifens voneinander. Es ist vorteilhaft, Kanten-Punkt eines ersten Typs, die typischerweise auf einer bestimmten Seite eines Markierungsstreifens liegen, von Kanten-Punkten eines zweiten Typs zu trennen, die typischerweise auf einer anderen Seite eines Markierungsstreifens liegen. Die Kanten-Punkte können bevorzugt in getrennten Gruppen abgespeichert sein. Alternativ oder zusätzlich können die Datenstrukturen der Kanten-Punkte eine zusätzliche Information aufweisen, die auf einen bestimmten Typ des zugehörigen Kanten-Merkmals schließen lässt.At least two separate sets of points are obtained, the first set of points comprising edge points of a first type and the second set of points comprising edge points of a second type. Typically, edge features differ from one another on two opposite sides of a marking strip. It is advantageous to separate edge points of a first type, which are typically on a certain side of a marking strip, from edge points of a second type, which are typically on another side of a marking strip. The edge points can preferably be stored in separate groups. As an alternative or in addition, the data structures of the edge points can have additional information which suggests a certain type of the associated edge feature.
Ziel dieses Verfahrens ist es, geometrische Linien zu erkennen bzw. zugehörige Datenstrukturen zu erzeugen, die mit hoher Wahrscheinlichkeit auf der Kontur eines Markierungsstreifens liegt. Es ist daher zielführend, für die Ermittlung der Linien-Objekte nur Kanten-Punkte zu betrachten, die typischerweise auf einer bestimmten Seite eines Markierungsstreifens liegen.The aim of this method is to recognize geometric lines or to generate associated data structures that lie with high probability on the contour of a marking strip. It is therefore expedient to only consider edge points for the determination of the line objects that are typically on a specific side of a marking strip.
Bevorzugt trägt auch ein erzeugtes Linien-Objekt eine Information bzgl. des Typs der zugrundeliegenden Kanten-Punkte. Es ist vorteilhaft, auch die Linien-Objekte in getrennten Gruppen abzuspeichern, wobei eine Gruppe Linien-Objekte eines bestimmten Typs umfasst. Zum leichteren Verständnis können Kanten-Punkte oder Linien-Objekte des ersten Typs als „linke“ Elemente eines Markierungsstreifens und Kanten-Punkte oder Linien-Objekte des zweiten Typs als „rechte“ Elemente eines Markierungssteifens betrachtet werden.A generated line object preferably also carries information relating to the type of the underlying edge points. It is advantageous to also store the line objects in separate groups, a group comprising line objects of a certain type. For easier understanding, edge points or line objects of the first type can be regarded as “left” elements of a marking strip and edge points or line objects of the second type as “right” elements of a marking strip.
Eine Linie in einer Ebene lässt sich mathematisch durch zwei Parameter bestimmen. Es ist vorteilhaft, hierfür einen Winkel und einen Querabstand zu einem Bezugspunkt in einem Bezugs-Koordinatensystem zu verwenden. Alternativ können auch andere Parameterkombinationen analog angewendet werden. Dem Fachmann sind hier verschiedenste Parametrisierungen von Linien bekannt.A line in a plane can be mathematically determined using two parameters. For this purpose it is advantageous to use an angle and a transverse distance to a reference point in a reference coordinate system. Alternatively, other parameter combinations can also be used analogously become. Various parameterizations of lines are known to the person skilled in the art here.
Zur Identifikation von Linien in einer Umgebungs-Bildaufnahme können vordefinierte und diskret verteilte Parameter-Kombinationen mit erkannten Kanten-Punkten verglichen werden. Eine besonders effiziente Methode hierfür ist die hier offenbarte Zählung von Kanten-Punkten innerhalb vordefinierter Zählstreifen.Predefined and discretely distributed parameter combinations can be compared with recognized edge points in order to identify lines in a surrounding image recording. A particularly efficient method for this is the counting of edge points within predefined counting strips disclosed here.
Ein Schritt des Verfahrens beinhaltet das Definieren von Zählstreifen im Bewegungsraum-Koordinatensystem. Ein Zählstreifen weist einen vorbestimmten Richtungswinkel und einen vorbestimmten Querabstand im Bewegungsraum-Koordinatensystem auf. Der Richtungswinkel kann beispielsweise auf eine der Achsen des Koordinatensystems bezogen sein. Der Querabstand lässt sich über ein Lot von einem Bezugspunkt, z.B. dem Nullpunkt des Koordinatensystems, auf eine Linie mit dem vorgenannten Richtungswinkel definieren. Der Querabstand oder der Richtungswinkel kann auch in Bezug auf einen anderen Zählstreifen definiert sein.One step of the method involves defining counting strips in the movement space coordinate system. A counting strip has a predetermined direction angle and a predetermined transverse distance in the movement space coordinate system. The directional angle can be related to one of the axes of the coordinate system, for example. The transverse distance can be determined from a reference point, e.g. define the zero point of the coordinate system on a line with the aforementioned direction angle. The transverse distance or the direction angle can also be defined in relation to another counting strip.
Die Zählstreifen werden in diskreten Parameterschritten definiert. In Abhängigkeit der zur Verfügung stehenden Rechenleistung und/oder der erforderlichen Erkennungsgenauigkeit können verschiedene Parameterschritte und Wertebereiche vorteilhaft sein. Bevorzugt werden Zählstreifen in Schritten von 0,5 Grad in einem Wertebereich von -30 bis +30 Grad definiert. Für den Querabstand werden bevorzugt Schritte von 10 cm gewählt. Bevorzugt werden die Zählstreifen in einem Bereich von ca. 2m bis 20m um das Fahrzeug bestimmt.The counting strips are defined in discrete parameter steps. Depending on the available computing power and / or the required recognition accuracy, different parameter steps and value ranges can be advantageous. Counting strips are preferably defined in steps of 0.5 degrees in a range of values from -30 to +30 degrees. Steps of 10 cm are preferred for the transverse distance. The counting strips are preferably determined in a range of approximately 2 m to 20 m around the vehicle.
Die Breite eines Zählstreifens kann implizit durch die Staffelung der Querabstände gegeben sein. Die Breite eines Zählstreifens kann auch explizit festgelegt sein. Parallele Zählstreifen können direkt aneinander angrenzen oder sich überlappen. Es werden bevorzugt überlappende Zählstreifen eingesetzt.The width of a metering strip can be given implicitly by the staggering of the transverse distances. The width of a counting strip can also be explicitly specified. Parallel counting strips can directly adjoin one another or overlap. Overlapping counting strips are preferably used.
In einem weiteren Schritt werden die Kanten-Punkte innerhalb je einer Punkte-Menge gezählt, die innerhalb eines Zählstreifens im Bewegungsraum-Koordinatensystem liegen. Das Zählen wird jeweils für eine Punkte-Menge in Kombination mit einer Mehrzahl vordefinierter Zählstreifen ausgeführt. Beim Zählen wird für einen Zählstreifen eine Zählstreifen-Summe der darin liegenden Kanten-Punkte gebildet. Die Zählstreifen-Summen bilden eine Verteilung über verschiedene Richtungswinkel und Querabstände der zuvor definierten Zählstreifen.In a further step, the edge points are counted within a set of points that lie within a counting strip in the movement space coordinate system. The counting is carried out for a set of points in combination with a plurality of predefined counting strips. When counting, a counting strip sum of the edge points located therein is formed for a counting strip. The counting strip totals form a distribution over different angles and transverse distances of the previously defined counting strips.
Die Verteilung der Zählstreifen-Summen für die verschiedenen Zählstreifen mit jeweils einem Richtungswinkel und einem Querabstand lässt sich als eine mathematische Funktion mit den zwei diskret verteilten Parametern Richtungswinkel und Querabstand beschreiben. Diese Funktion bildet eine Parameterkombination von Richtungswinkel und Querabstand auf eine zugehörige Zählstreifen-Summe.The distribution of the meter strip totals for the various meter strips, each with a direction angle and a transverse distance, can be described as a mathematical function with the two discretely distributed parameters direction angle and transverse distance. This function forms a parameter combination of the direction angle and transverse distance on an associated counting strip sum.
In einem weiteren Schritt wird mind. ein Zählstreifen bestimmt, der ein lokales Zähl-Maximum innerhalb der Verteilung der Zählstreifen-Summen aufweist. Ein Zählstreifen steht für eine bestimmte Parameterkombination, insbesondere einen Querabstand und einen Richtungswinkel. Für die Bestimmung lokaler Maxima innerhalb einer zweidimensionalen Verteilung mit diskreter Wertebasis sind dem Fachmann verschiedene Verfahren bekannt.In a further step, at least one counting strip is determined which has a local counting maximum within the distribution of the counting strip sums. A counting strip stands for a certain combination of parameters, in particular a transverse distance and a direction angle. Various methods are known to the person skilled in the art for determining local maxima within a two-dimensional distribution with a discrete value base.
In einem weiteren Schritt wird für einen Zählstreifen mit einem lokalen Zählmaximum ein Linien-Objekt im Bewegungs-Koordinatensystem mit dem Richtungswinkel und dem Querabstand dieses Zählstreifens definiert. Durch die Analyse lokaler Maxima in einer diskreten Verteilung vorbestimmter Parameterkombinationen lassen sich auf effiziente Weise Linien in der Umgebung des Fahrzeugs bestimmen, auf denen möglichst viele erfassbare Kanten-Merkmale bzw. Kanten-Punkte liegen.In a further step, a line object in the motion coordinate system is defined for a metering strip with a local counting maximum with the direction angle and the transverse distance of this metering strip. By analyzing local maxima in a discrete distribution of predetermined parameter combinations, lines in the vicinity of the vehicle can be determined in an efficient manner, on which as many detectable edge features or edge points as possible lie.
Bevorzugt werden auf Basis der erzeugten Linien-Objekte Kontur-Linien-Objekte bestimmt, die mindestens ein Ende aufweisen. In einer besonders vorteilhaften Ausführungsform wird für die Bestimmung von Kontur-Linien-Objekten ein Clustering von Kanten-Punkten eingesetzt.Based on the line objects generated, contour line objects are preferably determined which have at least one end. In a particularly advantageous embodiment, clustering of edge points is used for the determination of contour line objects.
StreifenerkennungsverfahrenStrip detection method
Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Streifenerkennungsverfahren. Dieses Verfahren kann ebenfalls als Teilverfahren des Objekterkennungsverfahrens oder eigenständig ausgeführt werden. Das Streifenerkennungsverfahren beinhaltet die kennzeichnenden Merkmale des Anspruchs 10.Another independent aspect of this disclosure is a stripe detection method. This method can also be carried out as a sub-method of the object recognition method or independently. The stripe detection method includes the characterizing features of claim 10.
Das Verfahren beinhaltet das Bestimmen von Streifen-Objekten auf Basis zuvor erfasster Kontur-Linien-Objekte. Mit dem Verfahren können einander zugehörige Kontur-Linien eines Markierungsstreifens ermittelt werden. Aus zwei Kontur-Linien-Objekten lässt sich ein Streifen-Objekt erzeugen. Das Verfahren umfasst mehrere Schritte.The method includes the determination of stripe objects based on previously recorded contour line objects. Corresponding contour lines of a marking strip can be determined with the method. A stripe object can be created from two contour line objects. The process consists of several steps.
Ein Schritt beinhaltet das Beziehen von mindestens zwei Linien-Mengen, wobei die erste Linien-Menge Kontur-Linien-Objekte eines ersten Typs umfasst. Die zweite Linien-Menge umfasst Kontur-Linien-Objekte eines zweiten Typs. Bevorzugt handelt es sich bei den Kontur-Linien-Objekten des ersten Typs um die linke Seite eines Markierungsstreifens und beim zweiten Typ um die rechte Seite eines Markierungsstreifens.A step involves acquiring at least two sets of lines, the first set of lines comprising contour-line objects of a first type. The second set of lines includes contour line objects of a second type. The contour-line objects of the first type are preferably the left side of a marking strip and the second type the right side of a marking strip.
In einem weiteren Schritt wird jeweils ein Kontur-Linien-Objekt der ersten Linien-Menge mit einem Gegen-Kontur-Linien-Objekt der zweiten Linien-Menge verglichen. Der Vergleich findet jeweils paarweise statt. Dieser Schritt wird wiederholt ausgeführt. In a further step, a contour-line object of the first set of lines is compared with a counter-contour-line object of the second set of lines. The comparison takes place in pairs. This step is carried out repeatedly.
Innerhalb eines Vergleich-Paares wird ein Übereinstimmungsmaß zwischen dem Kontur-Linien-Objekt und dem Gegen-Kontur-Linien-Objekt bestimmt. Das Übereinstimmungsmaß richtet sich nach Parallelität, Abstand und/oder gegenseitiger Deckung zwischen den Kontur-Linien-Objekten eines Vergleich-Paares. Die Berechnung eines Übereinstimmungsmaßes auf Basis dieser Kriterien ist besonders vorteilhaft für eine effiziente Zuordnung einer Vielzahl von erkannten Kontur-Linien-Objekten untereinander. Das Übereinstimmungsmaß kann auch aus einer Auswahl oder einer Kombination einzelner Kriterien (Parallelität, Abstand, gegenseitige Deckung) bestimmt werden.Within a comparison pair, a measure of agreement between the contour line object and the counter-contour line object is determined. The measure of conformity depends on parallelism, distance and / or mutual coverage between the contour line objects of a comparison pair. The calculation of a measure of conformity on the basis of these criteria is particularly advantageous for an efficient assignment of a large number of recognized contour line objects to one another. The measure of conformity can also be determined from a selection or a combination of individual criteria (parallelism, distance, mutual coverage).
Für einen Markierungsstreifen in der Umgebung eines Fahrzeugs sind die typischen Breiten und Formen bekannt. Diese a priori Informationen können für die Bestimmung von Streifen-Objekten genutzt werden.The typical widths and shapes are known for a marking strip in the vicinity of a vehicle. This a priori information can be used for the determination of stripe objects.
Wenn das Übereinstimmungsmaß eines Vergleichs-Paares oberhalb eines Übereinstimmungs-Schwellenwertes liegt, wird ein Streifen-Objekt auf Basis des Kontur-Linien-Objekts und des Gegenkontur-Linien-Objekts des Vergleich-Paares erzeugt.If the match size of a comparison pair is above a match threshold, a stripe object is created based on the contour line object and the counter contour line object of the comparison pair.
Bevorzugt wird das Übereinstimmungsmaß mittels Vergleich zweier Deckungs-Flächen berechnet. Eine Deckungsfläche bezeichnet die Fläche querab eines Kontur-Linien-Objekts bis zu einem (gegebenenfalls gedanklich verlängerten) zweiten Kontur-Linien-Objekt.The measure of conformity is preferably calculated by comparing two coverage areas. A cover area denotes the area transverse to a contour line object up to a (possibly mentally extended) second contour line object.
ParkflächenerkennungsverfahrenParking space detection method
Ein weiterer eigenständiger Aspekt dieser Offenbarung ist ein Parkflächenerkennungsverfahren. Mit diesem Verfahren können Parkflächen zwischen einer Mehrzahl erkannter Streifen-Objekte in der Umgebung des Fahrzeugs erkannt werden. Das Verfahren beinhaltet die kennzeichnenden Merkmale des Anspruchs 12.Another independent aspect of this disclosure is a parking area detection method. With this method, parking areas between a plurality of recognized strip objects in the surroundings of the vehicle can be recognized. The method includes the characterizing features of claim 12.
Das Verfahren umfasst das Erzeugen eines Parkflächen-Objekts auf Basis zuvor erfasster Streifen-Objekte. Bevorzugt wird eine Gruppe zusammenhängender Parkflächen in der Umgebung des Fahrzeugs identifiziert. Das Verfahren ist besonders geeignet für die Erkennung von quer zur Fahrtrichtung bzw. der Fahrbahn ausgerichtete Parkflächen, die parallel zueinander in einer Reihe oder einer Gruppe liegen.The method comprises the generation of a parking area object on the basis of previously detected stripe objects. A group of connected parking spaces in the vicinity of the vehicle is preferably identified. The method is particularly suitable for the detection of parking areas which are oriented transversely to the direction of travel or the lane and are parallel to one another in a row or a group.
Ein Ziel des Verfahrens ist es, in einer Menge von zuvor erkannten Streifen-Objekten Parkflächen zu identifizieren und diese möglichst robust und effizient von sonstigen Freiräumen zwischen den Streifen-Objekten zu unterschieden. So kann beispielsweise eine Durchfahrt zwischen zwei Streifen-Objekten von einer Parkfläche unterschieden werden.One aim of the method is to identify parking areas in a number of previously recognized stripe objects and to differentiate them as robustly and efficiently as possible from other open spaces between the stripe objects. For example, a passage between two strip objects can be distinguished from a parking area.
Das Verfahren umfasst mehrere Schritte. Ein Schritt beinhaltet das Beziehen von Streifen-Objekten, wobei ein Streifen-Objekt eine Position und eine Ausrichtung in einem Bewegungsraum-Koordinatensystem aufweist.The process consists of several steps. One step involves acquiring stripe objects, a stripe object having a position and an orientation in a movement space coordinate system.
Die Streifen-Objekte können durch eines der in dieser Offenbarung beschriebenen Verfahren erzeugt bzw. erkannt worden sein. Alternativ oder zusätzlich können auch Streifen-Objekte aus sonstigen Quellen oder einem anderen Softwaremodul oder einem Sensor bezogen werden.The stripe objects may have been created or recognized by one of the methods described in this disclosure. As an alternative or in addition, stripe objects can also be obtained from other sources or another software module or a sensor.
Die Erkennung der Parkflächen basiert auf einer Mustererkennung. Parkflächen auf größeren Parkplätzen sind in der Regel in Gruppen angeordnet. Die regelmäßigen Abstände und/oder Formen der Anordnung der Parkflächen bilden wiedererkennbare Muster. Diese Muster können vorteilhafterweise zur Identifikation einer Parkfläche genutzt werden.The recognition of the parking areas is based on a pattern recognition. Parking spaces in larger parking lots are usually arranged in groups. The regular intervals and / or forms of the arrangement of the parking areas form recognizable patterns. These patterns can advantageously be used to identify a parking area.
In einem Schritt wird ein Bezugs-Streifen-Objekt aus einer Menge bezogener Streifen-Objekte bestimmt. Dieser Schritt kann wiederholt für verschiedene Streifen-Objekte ausgeführt werden. Ein Bezugs-Streifen-Objekt dient als Startpunkt bei der Suche nach Mustern in der Menge von bekannten Streifen-Objekten. Diese Suche kann wiederholt für mehrere oder alle erfassten Streifen-Objekte ausgeführt werden. Bevorzugt werden mehrere Durchgänge nacheinander für verschiedene Bezugs-Streifen-Objekte durchgeführt.In one step, a reference stripe object is determined from a set of related stripe objects. This step can be repeated for different stripe objects. A reference stripe object serves as a starting point when looking for patterns in the set of known stripe objects. This search can be carried out repeatedly for several or all detected strip objects. Several passes are preferably carried out in succession for different reference strip objects.
In einem weiteren Schritt werden mehrere vorbestimmte Abstandsmuster auf die bezogenen Streifen-Objekte angewandt. Ein Abstands-Muster wird durch parallel versetzte Muster-Linien gebildet, die mit einem widerkehrenden Muster-Versatz von einem Bezugs-Streifen-Objekt ausgehend bestimmt werden. Diese Muster-Linien dienen zur Berechnung von Abweichungen zwischen dem vorbestimmten Muster und den erfassten Streifen-Objekten.In a further step, a plurality of predetermined spacing patterns are applied to the related stripe objects. A spacing pattern is formed by parallel staggered pattern lines, which are determined with a repetitive pattern offset starting from a reference strip object. These pattern lines are used to calculate deviations between the predetermined pattern and the detected stripe objects.
Muster-Linien können als virtuelle Berechnungshilfen betrachtet werden. In der Implementierung des Verfahrens können solche Muster-Linien durch verschiedene Parametrisierungen umgesetzt werden. Es ist beispielsweise möglich, einen bestimmten Muster-Versatz mit einem Index zu kombinieren. Jede Muster-Linie ist durch eine Kombination von einem Bezugs-Streifen-Objekt, einem Muster-Versatz und einem Index festgelegt. Sample lines can be viewed as virtual calculation aids. In the implementation of the method, such pattern lines can be implemented using various parameterizations. For example, it is possible to combine a certain pattern offset with an index. Each pattern line is through one Combination of a reference strip object, a pattern offset and an index specified.
Zusätzlich kann festgelegt werden, ob die Muster-Linien in eine oder beide Richtungen quer zum Bezugs-Streifen-Objekt bestimmt werden.In addition, it can be determined whether the pattern lines are determined in one or both directions across the reference strip object.
In einem weiteren Schritt wird ein optimales Abstands-Muster mit bester Passung zwischen den Streifen-Objekten und den Muster-Linien des Abstands-Musters bestimmt. Ein Abstands-Muster ist optimal, wenn das Abstands-Muster eine minimale Abweichung bzw. beste Passung zwischen den bezogenen Streifen-Objekten und den Muster-Linien dieses Musters aufweist.In a further step, an optimal spacing pattern with the best fit between the stripe objects and the pattern lines of the spacing pattern is determined. A spacing pattern is optimal if the spacing pattern has a minimal deviation or best fit between the related stripe objects and the pattern lines of this pattern.
Die Passung wird bevorzugt zwischen einem Streifen-Objekt und einer Muster-Linie in der Nähe des Streifen-Objekts berechnet. Für die Bestimmung der Passung ist eine Fehlerfunktion besonders geeignet.The fit is preferably calculated between a stripe object and a pattern line near the stripe object. An error function is particularly suitable for determining the fit.
Ein optimales Abstands-Muster weist einen optimalen Muster-Versatz auf. Die verschiedenen vorbestimmten Abstands-Muster weisen jeweils einen vorgegebenen Muster-Versatz auf. Die vorgegebenen Muster-Versätze orientieren sich bevorzugt an den üblicherweise auf Parkplätzen vorzufindenden Parkflächenbreiten. Bevorzugt werden mehrere Muster-Versatz-Werte in einem Bereich von 2m bis 4m. Insbesondere in Deutschland sind Muster-Versatz-Werte von 2,3m bis 2,5m vorteilhaft.An optimal spacing pattern has an optimal pattern offset. The various predetermined spacing patterns each have a predetermined pattern offset. The predefined pattern offsets are preferably based on the parking area widths usually found in parking lots. Several pattern offset values in a range from 2 m to 4 m are preferred. In Germany in particular, pattern offset values of 2.3 m to 2.5 m are advantageous.
In einem weiteren Schritt wird ein Passungs-Satz aus einem Bezugs-Streifen-Objekt und mindestens einem weiteren Streifen-Objekt bestimmt. Ein Passungs-Satz enthält Streifen-Objekte, die innerhalb eines ToleranzBereichs um eine Muster-Linie des optimalen Abstandsmusters liegen. Bevorzugt umfasst ein Passungs-Satz mindestens drei Streifen-Objekte.In a further step, a set of fits is determined from a reference strip object and at least one further strip object. A fit set contains stripe objects that lie within a tolerance range around a pattern line of the optimal spacing pattern. A set of fits preferably comprises at least three stripe objects.
Die Erkennung von Mustern findet in zwei Stufen statt. In der ersten Stufe wird aus einer Auswahl vorbestimmter Abstands-Muster ein optimales Abstands-Muster bestimmt. In der zweiten Stufe werden diejenigen Streifen-Objekte identifiziert, die sich mit dem optimalen Muster decken. Sie gehören mit erhöhter Wahrscheinlichkeit zu einer zusammenhängenden Gruppe von Parkflächen. Da die typischen Anordnungen von Parkflächen bekannt sind, ist diese Anwendung von vorbestimmten Mustern und das Testen gegenüber den erfassten Streifen-Objekten besonders vorteilhaft. Die Verarbeitung erkannter Streifen-Objekte kann so sehr effizient ausgeführt werden.Pattern recognition takes place in two stages. In the first stage, an optimal distance pattern is determined from a selection of predetermined distance patterns. In the second stage those stripe objects are identified that coincide with the optimal pattern. It is more likely that they belong to a coherent group of parking spaces. Since the typical arrangements of parking areas are known, this application of predetermined patterns and testing against the detected strip objects is particularly advantageous. The processing of recognized strip objects can thus be carried out very efficiently.
In einem weiteren Schritt wird eine zusammenhängende Gruppe von Parkflächen-Objekten zwischen den Streifen-Objekten eines Passungs-Satzes bestimmt.In a further step, a coherent group of parking area objects between the strip objects of a fit set is determined.
Es wird insbesondere ein Parkflächen-Objekt zwischen zwei Streifen-Objekten eines Passungs-Satzes erzeugt. Die Parkflächen werden bevorzugt als eine zusammenhängende Gruppe erzeugt. Eine Parkfläche weist eine bestimmte Größe und Lage auf. Außerdem besteht ein Bezug zwischen einer Parkfläche und den zugehörigen Streifen-Objekten.In particular, a parking area object is created between two stripe objects of a set of fits. The parking areas are preferably created as a coherent group. A parking area has a certain size and location. There is also a relationship between a parking area and the associated strip objects.
Es ist möglich, dass in der Umgebung des Fahrzeugs mehrere getrennte Gruppen von Parkflächen vorliegen. In diesem Fall können mehrere Passungs-Sätze für verschiedene Bezugs-Streifen-Objekte bestimmt werden.It is possible that there are several separate groups of parking spaces in the vicinity of the vehicle. In this case, several sets of fits can be determined for different reference strip objects.
Im Folgenden werden die Zeichnungen dieser Offenbarung näher erläutert und weitere vorteilhafte Merkmale und Ausführungsformen der Erfindung beschrieben.The drawings of this disclosure are explained in more detail below and further advantageous features and embodiments of the invention are described.
FigurenlisteFigure list
Die Erfindung ist in den Zeichnungen beispielhaft und schematisch dargestellt. Es zeigen:
-
1 : eine Draufsicht auf ein Fahrzeug, in dessen Umgebung sich zwei Parkflächen befinden; -
2 : eine Umgebungs-Bildaufnahme mit mehreren Abtastsegmenten und einem Vergrößerungsausschnitt (Z ); -
3 : zwei zeitlich versetzt aufgenommene Umgebungs-Bildaufnahmen während einer Bewegung des Fahrzeugs sowie einen Vergrößerungsausschnitt (Y ); -
4 : schematische Darstellung eines Fahrzeugs auf einer Fahrebene und Kanten-Punkten in unterschiedlichen Höhen gegenüber der Fahrebene; -
5 : ein Bewegungsraum-Koordinatensystem mit einem Raster und darin verortete Kanten-Punkten vor und nach einer inkrementellen Bewegung des Fahrzeugs zwischen zwei Umgebungs-Bildaufnahmen; -
6 : mehrere vorbestimmte Zählstreifen mit verschiedenen Querabständen und Richtungswinkeln in einem Bewegungsraum-Koordinatensystem; -
7 : eine Verteilung von Zählstreifen-Summen mit zwei lokalen Maxima; -
8 : ein erzeugtes Linien-Objekt sowie ein durch Clustering von Kanten-Punkten bestimmtes Kontur-Linien-Objekt in einem Bewegungsraum-Koordinatensystem; -
9 : erfasste Kontur-Linien-Objekte in einem Bewegungsraum-Koordinatensystem; -
10 : Kontur-Linien-Objekte mit unterschiedlichen Übereinstimmungsmaßen sowie ein Streifen-Objekt aus zwei Kontur-Linien-Objekten; -
11 : Bestimmung eines Übereinstimmungsmaßes zwischen einem Kontur-Linien-Objekt und einem Gegen-Kontur-Linien-Objekt; -
12 : Anwendung zweier vorbestimmter Abstands-Muster mit zwei verschiedenen Muster-Versätzen auf ein Bezugs-Streifen-Objekt; -
13 : Bestimmung eines Passungs-Satzes für ein optimales Abstands-Muster zwischen Parkflächenbegrenzungen;
-
1 : a plan view of a vehicle in the vicinity of which there are two parking spaces; -
2nd : an environmental image recording with several scan segments and a magnification section (Z. ); -
3rd : two temporally offset ambient images during a movement of the vehicle as well as an enlarged section (Y ); -
4th : schematic representation of a vehicle on a driving level and edge points at different heights compared to the driving level; -
5 : a movement space coordinate system with a grid and edge points located therein before and after an incremental movement of the vehicle between two surrounding images; -
6 : a plurality of predetermined counting strips with different transverse distances and direction angles in a movement space coordinate system; -
7 : a distribution of counting strip sums with two local maxima; -
8th : a generated line object and a contour line object determined by clustering edge points in a movement space coordinate system; -
9 : Detected contour line objects in a movement space coordinate system; -
10th : Contour line objects with different dimensions of conformity as well as a stripe object from two contour line objects; -
11 : Determination of a measure of conformity between a contour line object and a counter-contour line object; -
12th : Application of two predetermined distance patterns with two different pattern offsets to a reference strip object; -
13 : Determination of a fit rate for an optimal distance pattern between parking area boundaries;
Die in den Zeichnungen dargestellten Elemente können Teil der Umgebung des Fahrzeugs, d.h. reale Gegenstände oder Formen, oder Abbildungen dieser realen Gegenstände in einer Umgebungs-Bildaufnahme oder virtuelle Elemente sein, die der Darstellung einer Datenstruktur oder eines Verfahrensschritts dienen.The elements shown in the drawings can be part of the environment of the vehicle, i.e. real objects or shapes, or images of these real objects in an environmental image or virtual elements that serve to represent a data structure or a process step.
Die verschiedenen Datenstrukturen, insbesondere Objekte der offenbarten Verfahren, können auch in anderen Darstellungsformen visualisiert werden. Die Erfindung ist nicht auf diese hier gewählte, besonders einfach verständliche Darstellungsform beschränkt. Insbesondere können die beanspruchten Datenstrukturen oder Verfahrensschritte bzw. Verfahrensergebnisse in einer grafischen Ausgabe einer Vorrichtung anders gewählt sein.The various data structures, in particular objects of the disclosed methods, can also be visualized in other forms of representation. The invention is not restricted to the particularly simple to understand form of representation chosen here. In particular, the claimed data structures or process steps or process results can be selected differently in a graphic output of a device.
Für die Darstellung in den Zeichnungen wurden besonders vorteilhafte Ausführungsformen gewählt. Vereinzelt sind Elemente zum leichteren Verständnis in den Zeichnungen bewusst nicht dargestellt, da diese sonst nicht mehr für den menschlichen Betrachter verständlich wären.Particularly advantageous embodiments have been chosen for the representation in the drawings. Occasionally, elements for easier understanding are deliberately not shown in the drawings, since otherwise they would no longer be understandable to the human viewer.
In der Umgebung des Fahrzeugs liegen zwei Parkflächen (
Eine optisch wahrnehmbare Grenzstruktur ist insbesondere der Übergang von einem grauen Beton- oder Asphaltboden zu einem weißen oder gelben Farbstreifen. Alternativ oder zusätzlich können statt durchgezogener Markierungsstreifen auch unterbrochenen Markierungen erfasst werden.A visually perceptible boundary structure is in particular the transition from a gray concrete or asphalt floor to a white or yellow color stripe. As an alternative or in addition, interrupted markings can also be detected instead of solid marking strips.
Das Fahrzeug (
Die Parkflächenmarkierungen (
Abhängig von der Anordnung und Ausrichtung eines Umgebungssensors am Fahrzeug weist eine Umgebungs-Bildaufnahme (
In einer vorteilhaften Ausführungsform werden nur Bildinformationen innerhalb eines bestimmten, insbesondere statischen, Ausschnitts betrachtet. Innerhalb des statischen Bildausschnitts werden bevorzugt zusätzliche, insbesondere dynamische, Beschränkungen der zu verarbeitenden Bildinformationen vorgenommen. Bevorzugt wird ein (dynamischer) Verarbeitungsausschnitt (
Die Umgebungs-Bildaufnahme (
Ein Verarbeitungsausschnitt (
Innerhalb eines Abtastsegmentes (
Die Kanten-Merkmale (
Innerhalb des Abtastsegments (
In einer weiteren besonders vorteilhaften Ausführungsform wird ein Histogramm für die Anzahl gezählter Kanten-Merkmale (
Wenn eine richtungsbezogene Zählsumme für eine Zählrichtung (
Abtastsegmente, für die keine Zählsumme über einem Verarbeitungs-Relevanz-Schwellenwert liegen, werden bevorzugt nicht zum Verarbeitungsausschnitt hinzugefügt. In einer vorteilhaften Ausführungsform können jedoch noch zusätzliche Kriterien für die Aufnahme eines Abtastsegments in den Verarbeitungsausschnitt berücksichtigt werden. Zum Beispiel können benachbarte Abtastsegmente bereits hinzugefügter Abtastsegmente zusätzlich aufgenommen werden.Sampling segments for which no count sum lies above a processing relevance threshold value are preferably not added to the processing section. In an advantageous embodiment, however, additional criteria for the inclusion of a scanning segment in the processing section can be taken into account. For example, adjacent scan segments of previously added scan segments can also be included.
Die Bestimmung eines Verarbeitungsausschnitts (
Das richtungsbezogene Zählen eignet sich besonders zur Unterscheidung von Kanten-Merkmalen (
In einer bevorzugten Ausführungsform werden Kanten-Merkmale (
Der Vergrößerungsausschnitt (
In einer bevorzugten Ausführungsform werden die Bildinformationen einer Umgebungs-Bildaufnahme (
Die schematisch dargestellte Umgebungs-Bildaufnahme (
Die Kanten-Punkte (
Durch die zusätzliche Annahme einer Ebene, insbesondere der Fahrebene (
Im Falle eines Kanten-Merkmals (
Für einen Computer ist mit nur einer zweidimensionalen Bildaufnahme nicht ohne Weiteres feststellbar, ob die Bestimmung eines Kanten-Punktes (
Aus verschiedenen Perspektiven eines Umgebungssensors (
Tatsächlich auf Höhe der Fahrebene (
Kanten-Punkte (
Das in
Aus einer ersten Umgebungs-Bildaufnahme (
Für eine Umgebungs-Bildaufnahme (
Bevorzugt ist jeder Rasterzelle (
In einer besonders vorteilhaften Ausführungsform dienen die Akkumulations-Punkte (
In einer Ausführungsform werden zwischen zeitlich versetzten Aufnahmezeitpunkten die Akkumulations-Punkte (
Es ist insbesondere vorteilhaft, eine bestimmte Anzahl an Akkumulations-Punkten (
In
In einer ersten Umgebungs-Bildaufnahme (
Mit einer neuen zeitlich später aufgenommenen Umgebungs-Bildaufnahme (
Wenn ein Objekt in der Umgebung eines Fahrzeugs in mehreren zeitlich versetzt aufgenommenen Umgebungs-Bildaufnahmen (
Wenn ein Akkumulations-Zähler eines Akkumulations-Punktes (
Bevorzugt ist für jeden Zählstreifen (
Ein Zählstreifen (
Für mind. einen Zählstreifen (
Für mindestens ein Zähl-Maximum (
Bevorzugt wird eine Menge von Linien-Objekten (
Die Ermittlung der lokalen Zähl-Maxima (
Bevorzugt werden die Zähl-Ergebnisse in einem ersten Schritt für mehrere Zählstreifen mit jeweils einen Richtungswinkel (Ai) und einem Querabstand (Di) ermittelt. Die Zähl-Ergebnisse sind in einem dreidimensionalen Histogramm abbildbar. Die diskret verteilten Zählergebnisse (c[Ai,Di]) sind insbesondere als eine Mehrzahl von Vektoren c_Di[Ai] für jeweils einen vorbestimmten Querabstand [Di] darstellbar.In a first step, the counting results are preferably determined for a plurality of counting strips, each with a direction angle (Ai) and a transverse distance (Di). The counting results can be displayed in a three-dimensional histogram. The discretely distributed count results (c [Ai, Di]) can be represented in particular as a plurality of vectors c_Di [Ai] for a predetermined transverse distance [Di] in each case.
In einem zweiten Schritt wird in mindestens einem, bevorzugt jedem, Vektor c_Di[Ai] ein Maximum der Zählergebnisse
In einem dritten Schritt werden die Zwischenergebnisse aus Zähler-Maxima als ein Vektor für eine Vielzahl von Querabständen (Di) betrachtet. Innerhalb dieses Vektors werden lokale Maxima der Zählerergebnisse und die dazugehörigen Querabstände (
Durch dieses mehrstufige Verfahren kann die Ermittlung der Querabstände (
Durch die zu erwartende Ausrichtung von Linien auf einem Parkplatz können die theoretisch auftretenden Doppeldeutigkeiten bei einer stufenweisen Ermittlung lokaler Maxima in Kauf genommen werden.Due to the expected alignment of lines in a parking lot, the theoretically occurring ambiguities can be accepted in a step-by-step determination of local maxima.
In dieser bevorzugten Ausführungsform werden sowohl ein Anfangs- als auch Endpunkt eines Kontur-Linien-Objekts (
Zur Bestimmung des Anfangs- oder Endpunkts eines Kontur-Linien-Objekts (
Vorteilhafterweise werden bei der Suche nach Markierungsstreifen nur Kontur-Linien-Objekte (
Innerhalb eines Vergleichspaares (
Für einen korrekt erfassten Markierungsstreifen einer Parkflächenmarkierung (
Die Bestimmung eines Übereinstimmungsmaßes (
Die Deckungs-Fläche (
In einem weiteren Schritt wird eine Gegen-Deckungs-Fläche (
In einem weiteren Schritt wird eine Schnitt-Fläche (
In einem weiteren Schritt wird eine Vereinigungsfläche (
Der Quotient aus der Schnittfläche (
Zusätzlich kann auch der Abstand zwischen den Kontur-Linien-Objekten (
Für das Übereinstimmungsmaß (
Die
Ein erstes Abstands-Muster (
Zu einem Bezugs-Streifen-Objekt (
Unter den verschiedenen angewendeten Abstands-Mustern wird ein Abstands-Muster (
Bevorzugt werden die Abstands-Muster (
Es können insbesondere mehrere Parkflächen-Gruppen mit mehreren optimalen Abstands-Mustern in derselben Umgebungs-Szene ermittelt werden.In particular, several parking area groups with several optimal distance patterns can be determined in the same surrounding scene.
Das (Teil-)Verfahren zur Bestimmung von Mustern wird für mehrere Bezugs-Streifen-Objekte wiederholt. Das Bezugs-Streifen-Objekt mit der besten Passung, insbesondere mit einem minimalen Ergebnis einer Fehlerfunktion, wird für die weitere Verarbeitung ausgewählt.The (partial) procedure for determining patterns is repeated for several reference strip objects. The reference strip object with the best fit, in particular with a minimal result of an error function, is selected for further processing.
In einer bevorzugten Ausführungsform wird eine Fehlerfunktion verwendet um die Passung zwischen einem Abstands-Muster und einer Mehrzahl an Streifen-Objekten (
Für einen Passungs-Satz (
Die Parkflächen-Objekte (
In einer bevorzugten Ausführungsform bilden Parkflächen-Objekte (
AusführungsformenEmbodiments
In einer bevorzugten Ausführungsform wird das computerbasierte Objekterkennungsverfahren zumindest teilweise wiederholt für jede neue Umgebungs-Bildaufnahme (
In einer bevorzugten Ausführungsform werden Grenzstrukturen (
Bevorzugt werden die auf Basis der Messung erzeugten virtuellen Objekte, insbesondere Kontur-Linien-Objekte (
Bevorzugt wird für das Tracking ein Kalman-Filter eingesetzt. In einem Prädiktionsschritt werden Positionsmessungen erfasster Objekte aus älteren Umgebungs-Bildaufnahmen (
Auch wenn keine neuen Messungen eines bereits erfassten Objekts verfügbar sind, da das erfasste Objekt in jüngeren Umgebungs-Bildaufnahmen nicht mehr abgebildet ist oder verdeckt ist, kann ein sogenanntes blindes Tracking mit rein modelbasierter Prädiktion der Position des Objekts durchgeführt werden. Mit der Zeit steigt erwartungsgemäß die Ungenauigkeit einer solchen rein modelbasierten Schätzung. Ungenauigkeiten im Bewegungsmodell oder den bezogenen Bewegungsinformationen zur Eigenbewegung des Fahrzeugs (
In einer weiteren bevorzugten Ausführungsform werden ausschließlich optisch wahrnehmbare Grenzstrukturen (
Die Verteilung der Abtastsegmente (
Zur Bestimmung von Kanten-Merkmalen (
In einer bevorzugten Ausführungsform wird eine Umgebungs-Bildaufnahme und/oder ein zugehöriges Gradientenbild zeilenweise von links bzgl. des Bildkoordinatensystems durchsucht. Eine Parkflächenmarkierung ist in der Regel durch einen ersten positiven Gradienten, insbesondere des Grauwerts, und einen in kurzem Abstand folgenden negativen Gradienten innerhalb einer Zeile gekennzeichnet. Zur Bestimmung eines Kanten-Merkmal-Paares (
Zum Auffinden von Kanten-Punkten (
In einer bevorzugten Ausführungsform werden Akkumulations-Punkte (
Zur Verarbeitung einer zweiten, jüngeren Umgebungs-Bildaufnahme (
Die Aktualisierung der Position eines Akkumulations-Punktes (
Es können einzelne Umgebungs-Bildaufnahmen oder Kanten-Merkmale oder Kanten-Punkte bei der Verarbeitung übersprungen werden. Dies kann insbesondere zur Erfüllung von Echtzeitbedingungen vorteilhaft sein.Individual environmental images or edge features or edge points can be skipped during processing. This can be particularly advantageous for fulfilling real-time conditions.
In einer weiteren Ausführungsform wird eine Verfallsrate auf einen Akkumulations-Zähler angewendet. Die Verfallsrate bewirkt, dass der Akkumulations-Zähler eines Akkumulations-Punktes mit der Zeit reduziert wird. Dies ist insbesondere während eines Stillstands des Fahrzeugs vorteilhaft. Während des Stillstands des Fahrzeugs werden laufend neue Umgebungs-Bildaufnahmen bezogen, wobei die erfassten optischen Grenzstrukturen (
Die Akkumulation von Kanten-Punkten (
In einer Ausführungsform wird zumindest ein Bereich des Bewegungsraum-Koordinatensystems (
Die Position eines Akkumulations-Punktes (
In einer bevorzugten Ausführungsform werden Kontur-Linien-Objekte (
Beim Clustering werden aus einer Menge von Kanten-Punkten (
In einer weiteren Ausführungsform werden erfasste Streifen-Objekte (
Das offenbarte Objekterkennungsverfahren wird bevorzugt für Kraftfahrzeuge eingesetzt. Für diesen Einsatz bietet das Verfahren besondere Vorteile. Insbesondere ist das Verfahren mit Großserienkomponenten und automobiltauglicher Elektronik kostengünstig umsetzbar.The disclosed object recognition method is preferably used for motor vehicles. The process offers particular advantages for this application. In particular, the method can be implemented cost-effectively with large-series components and automotive electronics.
Das Objekterkennungsverfahren und/oder ein offenbartes Teilverfahren wird insbesondere durch Ausführung von Anweisungen auf einer elektronischen Steuereinrichtung, z.B. einem Steuergerät in einem Fahrzeug, ausgeführt. The object detection method and / or a disclosed partial method is carried out in particular by executing instructions on an electronic control device, e.g. a control unit in a vehicle.
Die Offenbarung umfasst auch ein Software-Produkt, das Anweisungen enthält, die zur Ausführung auf einer elektronischen Datenverarbeitungseinrichtung geeignet sind. Die Anweisungen sind dazu ausgebildet eines der beanspruchten Verfahren auszuführen.The disclosure also includes a software product that contains instructions suitable for execution on an electronic data processing device. The instructions are designed to carry out one of the claimed methods.
Das offenbarte Verfahren ist bevorzugt computerimplementiert. Die Ausführung des Verfahrens erfolgt bevorzugt vollautomatisch. Insbesondere die Verarbeitung von Umgebungs-Bildaufnahmen im Echtzeitbetrieb erfordert eine teilautomatische oder vollautomatische Ausführung des Objekterkennungsverfahrens.The disclosed method is preferably implemented in a computer. The method is preferably carried out fully automatically. In particular, the processing of ambient image recordings in real time operation requires a partially automatic or fully automatic execution of the object recognition process.
Auf Basis des Verfahrens oder auf Basis der erzeugten Datenstrukturen bzw. Objekte können Steuerbefehle erzeugt werden. Die Datenstrukturen können insbesondere auf einer Anzeigeeinrichtung ausgegeben werden. Die erzeugten Steuerbefehle können zur Ansteuerung einer Anzeigeeinrichtung oder einer Fahrzeugführungseinrichtung (z.B. Parkassistent) verwendet werden.Control commands can be generated on the basis of the method or on the basis of the data structures or objects generated. The data structures can in particular be output on a display device. The generated control commands can be used to control a display device or a vehicle guidance device (e.g. parking assistant).
Abwandlungen der Erfindung sind in verschiedener Weise möglich. Insbesondere können die zu den jeweiligen Ausführungsbeispielen gezeigten, beschriebenen oder beanspruchten Merkmale in beliebiger Weise miteinander kombiniert, gegeneinander ersetzt, ergänzt oder weggelassen werden.Modifications of the invention are possible in various ways. In particular, the features shown, described or claimed for the respective exemplary embodiments can be combined with one another in any manner, replaced with one another, supplemented or omitted.
BezugszeichenlisteReference list
- 11
- Fahrzeugvehicle
- 1111
- Kameracamera
- 22nd
- ParkflächeParking area
- 55
- FahrebeneDriving level
- 66
- Horizont horizon
- 201201
- ParkflächenmarkierungParking area marking
- 202202
- Grenzstruktur Border structure
- 300, 300'300, 300 '
- Umgebungs-BildaufnahmeAmbient image acquisition
- 301301
- VerarbeitungsausschnittProcessing cutout
- 302302
- AbtastsegmentScan segment
- 310310
- Kanten-MerkmalEdge feature
- 310a310a
-
Kanten-Merkmal Typ 1Edge
characteristic type 1 - 310b310b
-
Kanten-Merkmal Typ 2Edge
characteristic type 2 - 310x310x
- Kanten-Merkmal (außerhalb Fahrebene)Edge feature (outside the driving plane)
- 315315
- Zähl-RichtungCount direction
- 320320
- Kanten-Merkmal-PaarEdge feature pair
- 321321
- Bezugs-Kanten-MerkmalReference edge feature
- 322322
- Gegen-Kanten-MerkmalCounter-edge feature
- 325325
- Suchrichtung Search direction
- 400400
- Bewegungsraum-KoordinatensystemMovement space coordinate system
- 405405
- Raster, Raster-ZellenGrid, grid cells
- 410, 410'410, 410 '
- Kanten-PunktEdge point
- 410x, 410x'410x, 410x '
- Fehlerbehaftete Position eines Kanten-Punkts (falsche Annahme bzgl. Fahrebene)Defective position of an edge point (incorrect assumption regarding the driving plane)
- 410r410r
- Tatsächliche Position eines Kanten-Punktes in realer UmgebungActual position of an edge point in a real environment
- 410e410e
- Cluster-ExtrempunktCluster extreme point
- 411411
- ProjektionslinieProjection line
- hH
- Höhe über FahrebeneHeight above driving level
- 420, 420', 420x420, 420 ', 420x
- Akkumulations-Punkt Accumulation point
- 430430
- Linien-ObjektLines object
- 435, 435i435, 435i
- Zählstreifen Counting strips
- 440, 440a440, 440a
- Kontur-Linien-ObjektContour line object
- 441441
- Cluster Cluster
- 440b440b
- Gegen-Kontur-Linien-Objekt Counter-contour line object
- 450450
- Streifen-ObjektStripe object
- 450r450r
- Bezugs-Streifen-Objekt Reference strip object
- 455455
- Passungs-Satz Fit set
- 500500
- Parkflächen-Objekt Parking space object
- Ai, AmjAi, Amj
- RichtungswinkelDirectional angle
- Di, DmjTue, Dmj
- QuerabstandTransverse distance
- c[Ai,Di]c [Ai, Di]
- Zähl-ErgebnisCounting result
- cMjcMj
- Lokales Zähl-Maximum Local count maximum
- P1, P2, PiP1, P2, Pi
- Abstands-MusterDistance pattern
- PO1, PO2, POiPO1, PO2, POi
- Muster-VersatzPattern offset
- PL1, PL2, PLiPL1, PL2, PLi
- Muster-LinienPattern lines
- TT
- Toleranz-Bereich Tolerance range
- ISIS
- SchnittflächeCutting surface
- USUS
- VereinigungsflächeUnion area
- XSXS
- ÜbereinstimmungsmaßMeasure of conformity
- SaSat
- Deckungs-FlächeCover area
- SbSb
- Gegen-Deckungs-Fläche Counter-cover area
- Y, ZY Z
- [vergrößerte Bildausschnitte][enlarged image sections]
Claims (17)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018123393.0A DE102018123393A1 (en) | 2018-09-24 | 2018-09-24 | Detection of parking areas |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018123393.0A DE102018123393A1 (en) | 2018-09-24 | 2018-09-24 | Detection of parking areas |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018123393A1 true DE102018123393A1 (en) | 2020-03-26 |
Family
ID=69725503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018123393.0A Pending DE102018123393A1 (en) | 2018-09-24 | 2018-09-24 | Detection of parking areas |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018123393A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112946661A (en) * | 2021-02-08 | 2021-06-11 | 同致电子科技(厦门)有限公司 | Road edge detection method and device based on multi-view vision of 360-degree all-round vision system |
CN115791791A (en) * | 2022-11-14 | 2023-03-14 | 中国科学院沈阳自动化研究所 | Visual detection method for liquid crystal panel packing scrap |
CN116188512A (en) * | 2023-04-27 | 2023-05-30 | 合肥埃科光电科技股份有限公司 | Linear edge extraction method and system for image processing and electronic equipment |
CN116442393A (en) * | 2023-06-08 | 2023-07-18 | 山东博硕自动化技术有限公司 | Intelligent unloading method, system and control equipment for mixing plant based on video identification |
CN116740982A (en) * | 2023-08-15 | 2023-09-12 | 禾多科技(北京)有限公司 | Target parking space determination method and device, storage medium and electronic device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2047213B1 (en) * | 2006-07-21 | 2014-09-10 | TRW Limited | Generating a map |
DE112015002593T5 (en) * | 2014-06-02 | 2017-04-06 | Denso Corporation | VEHICLE-MOUNTED IMAGE PROCESSING DEVICE |
US20180095474A1 (en) * | 2016-09-30 | 2018-04-05 | Faraday&Future Inc. | Methods and systems for camera-based autonomous parking |
-
2018
- 2018-09-24 DE DE102018123393.0A patent/DE102018123393A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2047213B1 (en) * | 2006-07-21 | 2014-09-10 | TRW Limited | Generating a map |
DE112015002593T5 (en) * | 2014-06-02 | 2017-04-06 | Denso Corporation | VEHICLE-MOUNTED IMAGE PROCESSING DEVICE |
US20180095474A1 (en) * | 2016-09-30 | 2018-04-05 | Faraday&Future Inc. | Methods and systems for camera-based autonomous parking |
Non-Patent Citations (1)
Title |
---|
JIANG, S. [et al.]: Parking-lines detection based on an improved Hough transform. In: 2017 International Conference on Robotics and Machine Vision. International Society for Optics and Photonics, 2017, S. 1061307.URL: https://www.spiedigitallibrary.org/conference-proceedings-of-spie/10613/1061307/Parking-lines-detection-based-on-an-improved-Hough- transform/10.1117/12.2300492.pdf[abgerufen am 02.07.2019] * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112946661A (en) * | 2021-02-08 | 2021-06-11 | 同致电子科技(厦门)有限公司 | Road edge detection method and device based on multi-view vision of 360-degree all-round vision system |
CN112946661B (en) * | 2021-02-08 | 2023-10-20 | 同致电子科技(厦门)有限公司 | Road edge detection method and device based on 360-degree looking-around system multi-view vision |
CN115791791A (en) * | 2022-11-14 | 2023-03-14 | 中国科学院沈阳自动化研究所 | Visual detection method for liquid crystal panel packing scrap |
CN116188512A (en) * | 2023-04-27 | 2023-05-30 | 合肥埃科光电科技股份有限公司 | Linear edge extraction method and system for image processing and electronic equipment |
CN116442393A (en) * | 2023-06-08 | 2023-07-18 | 山东博硕自动化技术有限公司 | Intelligent unloading method, system and control equipment for mixing plant based on video identification |
CN116442393B (en) * | 2023-06-08 | 2024-02-13 | 山东博硕自动化技术有限公司 | Intelligent unloading method, system and control equipment for mixing plant based on video identification |
CN116740982A (en) * | 2023-08-15 | 2023-09-12 | 禾多科技(北京)有限公司 | Target parking space determination method and device, storage medium and electronic device |
CN116740982B (en) * | 2023-08-15 | 2023-12-01 | 禾多科技(北京)有限公司 | Target parking space determination method and device, storage medium and electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102018123393A1 (en) | Detection of parking areas | |
DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102015214338A1 (en) | Determining an arrangement information for a vehicle | |
EP3491417A1 (en) | Method and system for detecting landmarks in a traffic environment of a mobile unit | |
DE10029866A1 (en) | Object recognition apparatus for motor vehicles, selects specific image windows depending on the distance difference and combines selected windows to recognize target object using attribute values | |
EP2963631B1 (en) | Method for determining a parking space from a number of measuring points | |
DE102011111440A1 (en) | Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment | |
EP2005361A1 (en) | Multi-sensorial hypothesis based object detector and object pursuer | |
DE102018117660A1 (en) | METHOD AND SYSTEM FOR DETERMINING A POSITION OF A VEHICLE | |
DE102016225595A1 (en) | Method and arrangement for calibrating at least one sensor of a rail vehicle | |
DE102020112825A1 (en) | Method for detecting relevant static objects within a lane as well as computing device for a driver assistance system of a vehicle | |
EP3663881B1 (en) | Method for controlling an autonomous vehicle on the basis of estimated movement vectors | |
DE102008008499B4 (en) | Method for computer-aided calculation of the movement of an object from sensor data | |
DE19627938B4 (en) | Method for dynamic tracking in moving picture sequences | |
DE102020134119B3 (en) | Method for localizing a motor vehicle in an assistance card, motor vehicle, computer program and electronically readable data carrier | |
DE102013018561A1 (en) | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses | |
EP3663800B1 (en) | Method for detecting objects using a 3d camera | |
DE102019102561A1 (en) | Process for recognizing a plaster marking | |
DE102019210518A1 (en) | Method for recognizing an object in sensor data, driver assistance system and computer program | |
DE102019127322A1 (en) | Method for detecting objects in a vehicle environment, device for data processing, computer program product and computer-readable data carrier | |
DE102012008780A1 (en) | Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model | |
DE102019209637B4 (en) | Generating a vehicle environment map | |
DE102020214002B3 (en) | Device and method for determining a position of a detection unit and method for storing extraction information in a database | |
DE102021209698A1 (en) | Method for calibrating a road surveillance device and road surveillance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |