DE102014109063A1 - Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug - Google Patents

Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug Download PDF

Info

Publication number
DE102014109063A1
DE102014109063A1 DE102014109063.2A DE102014109063A DE102014109063A1 DE 102014109063 A1 DE102014109063 A1 DE 102014109063A1 DE 102014109063 A DE102014109063 A DE 102014109063A DE 102014109063 A1 DE102014109063 A1 DE 102014109063A1
Authority
DE
Germany
Prior art keywords
image
parameter space
regression function
motor vehicle
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014109063.2A
Other languages
English (en)
Inventor
wird später genannt werden Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102014109063.2A priority Critical patent/DE102014109063A1/de
Priority to EP15165780.6A priority patent/EP2960827A1/de
Publication of DE102014109063A1 publication Critical patent/DE102014109063A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Detektion eines Objekts (24), welches eine vorbestimmte geometrische Form aufweist und sich in einem Umgebungsbereich eines Kraftfahrzeugs (1) befindet. Die Detektion erfolgt mittels eines Kamerasystems (2) des Kraftfahrzeugs (1). Es wird ein Bild des Umgebungsbereichs mittels einer Kamera (3) des Kamerasystems (2) bereitgestellt. Dann wird ein Gradientenbild (22) aus dem Bild mittels einer Bildverarbeitungseinrichtung (4) des Kamerasystems (2) erzeugt, also insbesondere ein Kantenbild. Die Bildverarbeitungseinrichtung (4) bestimmt dann zumindest eine Regressionsfunktion (29) aus Kanten (19) des Gradientenbilds (22), wobei als Regressionsfunktion (29) eine Funktion verwendet wird, welche eine der geometrischen Form des gesuchten Objekts (24) entsprechende Form aufweist. Dann erfolgt ein Transformieren der Regressionsfunktion (29) von einem Bildraum (28) des Gradientenbilds (22) in einen Parameterraum (31) unter Verwendung einer vorbestimmten Transformationsvorschrift durch die Bildverarbeitungseinrichtung (4), beispielsweise einer Hough-Transformation. Die Detektion des Objekts (24) erfolgt dann anhand der transformierten Regressionsfunktion (29) in dem Parameterraum (31).

Description

  • Die Erfindung betrifft ein Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs. Bei dem Verfahren wird zumindest ein Bild des Umgebungsbereichs mittels einer Kamera des Kamerasystems bereitgestellt, wobei die Detektion anhand des Bilds erfolgt. Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, welches zum Durchführen eines solchen Verfahrens ausgebildet ist, wie auch ein Kraftfahrzeug mit einem derartigen Kamerasystem.
  • Kamerasysteme für Kraftfahrzeuge, welche Objekte mit einer vorbestimmten geometrischen Form im Umgebungsbereich des Kraftfahrzeugs detektieren, sind bereits aus dem Stand der Technik bekannt. Dies kann einerseits mit einem Shape-Matching-Verfahren erfolgen, bei welchem ein abgelegtes Vorlagebild (template) mit einem aktuell von der Kamera aufgenommenen Bild des Umgebungsbereichs verglichen wird. Hierbei werden vorbestimmte Formen in einem Kamerabild – mittels beispielsweise einer Kreuzkorrelation – gesucht. Andererseits kann die Detektion alternativ auch mit einer Transformation in einen Parameterraum – insbesondere einer Hough-Transformation – erfolgen, wie dies aus der Druckschrift US 3 069 654 A bekannt ist. In diesem Fall wird zuerst von dem Kamerabild ein Gradientenbild berechnet; dies bedeutet, dass Bildpunkte, welche zu Kanten gehören, ermittelt und anschließend als Binärbild dargestellt werden. In einem weiteren Schritt erfolgt dann eine Transformation des Gradientenbilds iterativ in einen Hough-Raum, der einen Parameterraum darstellt. Dies erfolgt über einen Abstimmungsprozess, in dem jeder Bildpunkt des Gradientenbilds mit je einer Stimme (vote) zu jeder Linie, welche den Bildpunkt kreuzt, beiträgt. Diese Linien sind im Hough-Raum als Sinuskurven vorhanden. Um das gesuchte Objekt in dem Hough-Raum zu finden, werden nun die Linien ausgewählt, welche besonders viele Stimmen in dem Abstimmungsprozess erhalten haben. In einer leichten Abwandlung dieses Verfahrens kann anstatt einer Linie auch ein anderes geometrisches Objekt, wie beispielsweise ein Kreis, verwendet werden.
  • An dem genannten Stand der Technik ist nachteilig, dass das Shape-Matching-Verfahren ein genaues Vorlagebild des gesuchten Objekts in einer Datenbank benötigt. Dies führt dazu, dass das Verfahren oft nicht robust arbeitet, weil beispielsweise die Skalierung des aktuellen Kamerabilds mit der des Vorlagebilds nicht exakt übereinstimmt. Außerdem ist eine starke Einschränkung bezüglich der Generalität hinzunehmen: Für den Fall, dass das zu detektierende Objekt leicht veränderte Merkmale bezüglich der Vorlage aufweist, kann ein Fehler bei der Detektion auftreten. Abhilfe schafft hier die oben genannte Hough-Transformation. Diese ist nicht abhängig von einer exakten Vorlage des gesuchten Objektes. Eine gesuchte Linie kann sich beispielsweise über eine, in einem bestimmten Bereich festzulegende Länge erstrecken: eine Tatsache, welche die Generalität des Verfahrens erhöht. Des Weiteren ist der Hough-Raum als robust bekannt. Ein Nachteil der Hough-Transformation ist jedoch der hohe Rechenaufwand aufgrund des extrem iterativen Vorgehens. Mit anderen Worten ist die Hough-Transformation eine Brute-Force-Methode.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie bei einem Verfahren der eingangs genannten Gattung der Rechenaufwand bei der Detektion des Objekts, insbesondere bei einer Transformation in einen Parameterraum, im Vergleich zu einer herkömmlichen Hough-Transformation reduziert werden kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Kamerasystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Ein erfindungsgemäßes Verfahren dient zur Detektion eines Objekts, welches eine vorbestimmte geometrische Form aufweist und sich in einem Umgebungsbereich eines Kraftfahrzeugs befindet. Die Detektion erfolgt mittels eines Kamerasystems des Kraftfahrzeugs. Es wird ein Bild des Umgebungsbereichs mittels einer Kamera des Kamerasystems bereitgestellt. Dann wird ein Gradientenbild aus dem Bild mittels einer Bildverarbeitungseinrichtung des Kamerasystems erzeugt, also insbesondere ein Kantenbild. Die Bildverarbeitungseinrichtung bestimmt dann zumindest eine Regressionsfunktion aus Kanten des Gradientenbilds, wobei als Regressionsfunktion eine Funktion verwendet wird, welche eine der geometrischen Form des gesuchten Objekts entsprechende Form aufweist. Dann erfolgt ein Transformieren der Regressionsfunktion von einem Bildraum des Gradientenbilds in einen Parameterraum unter Verwendung einer vorbestimmten Transformationsvorschrift durch die Bildverarbeitungseinrichtung, beispielsweise einer Hough-Transformation. Die Detektion des Objekts erfolgt dann anhand der transformierten Regressionsfunktion in dem Parameterraum und somit anhand von Elementen des Parameterraums.
  • Erfindungsgemäß wird demnach vorgeschlagen, nicht direkt die Bildpunkte des Gradientenbilds in den Parameterraum zu transformieren, sondern zunächst einen Vorverarbeitungsschritt einzuführen. In diesem Vorverarbeitungsschritt werden die Bildpunkte des Gradientenbilds, welche zu Kanten gehören, durch zumindest eine Regressionsfunktion approximiert. Anschließend kann diese Regressionsfunktion selbst in den Parameterraum transformiert werden und es muss nicht mehr über alle Bildpunkte iteriert werden, sondern nur noch über die Regressionsfunktion.
  • Das erfindungsgemäße Verfahren hat den Vorteil, dass durch die Einführung der Regressionsfunktion, welche den Verlauf von Konturen des gesuchten Objekts approximiert und in der Weise ein so genanntes Skelett darstellt, eine funktionale Darstellung der Kanten des Gradientenbilds ermöglicht wird. Diese funktionale Darstellung ermöglicht dann eine Transformation in den Parameterraum mit einer besonders niedrigen Rechenzeit. Insgesamt kann die Detektion des Objekts somit ohne viel Rechenaufwand erfolgen, so dass auch eine Bildverarbeitungseinrichtung (DSP) mit einer beschränkten Rechenleistung eingesetzt werden kann und dennoch die Detektion des Objekts in Echtzeit vorgenommen werden kann.
  • Unter einer Kamera wird vorliegend eine – insbesondere farbempfindliche – Bilderfassungseinrichtung verstanden, welche zum Erfassen von Licht im sichtbaren Spektralbereich ausgebildet ist und so Bilder des Umgebungsbereichs bereitstellen kann. Als Kamera kann beispielsweise eine CCD-Kamera oder eine CMOS-Kamera eingesetzt werden. Insbesondere ist die Kamera auch eine Video-Kamera, welche eine zeitliche Sequenz von Bildern des Umgebungsbereichs bereitstellt und an die Bildverarbeitungseinrichtung übermittelt.
  • In einer Ausführungsform wird als Objekt eine auf einer Fahrbahn angebrachte Fahrbahnmarkierung detektiert. In diesem Zusammenhang kann vorgesehen sein, dass als Objekt eine eine Parklücke begrenzende Parklückenmarkierung und/oder eine eine Fahrspur begrenzende Fahrbahnlängsmarkierung durch das Kamerasystem detektiert wird. Dies ist eine Vorteilhafte Anwendung, weil diese Fahrbahnmarkierungen besonders gut mit einer linearen Regressionsfunktion approximiert werden können. Somit kann das Kamerasystem beispielsweise besonders vorteilhaft als ein Spurhalteassistent und/oder als Parkassistenzsystem verwendet werden.
  • In einer Ausführungsform wird ein Objekt mit zumindest einer geradlinigen Kontur detektiert, wobei als Regressionsfunktion eine gerade und somit lineare Funktion verwendet wird. Dies hat den Vorteil, dass diese gerade Funktion einfach und schnell zu berechnen ist und gerade Straßenmarkierungen – wie Parklückenmarkierungen und/oder Fahrbahnlängsmarkierungen – ohne viel Rechenaufwand beschrieben und detektiert werden können.
  • Ergänzend oder alternativ kann ein Objekt mit zumindest einer ovalen, insbesondere kreisförmigen, Kontur detektiert werden, wobei als Regressionsfunktion dann eine ovale, insbesondere kreisförmige, Funktion verwendet wird. Diese Funktion kann beispielsweise verwendet werden, um einen Bestandteil, insbesondere ein Rad oder dergleichen, eines anderen am Verkehr teilnehmenden Objektes zu beschreiben.
  • Weiterhin ergänzend oder alternativ kann ein Objekt mit einer T-förmigen und/oder L-förmigen Kontur detektiert werden, wobei in diesem Fall als Regressionsfunktion eine Kombination von geraden Funktionen verwendet wird. Vorteilhaft ist, dass mit diesen Formen ein Großteil der typischen Parklückenmarkierungen beschrieben werden kann.
  • Bevorzugt wird als die Transformationsvorschrift eine Transformationsvorschrift für Linienelemente zum Transformieren der Regressionsfunktion verwendet. Dies bedeutet, dass nicht separat die Bildpunkte des Gradientenbilds, sondern die gesamte Regressionsfunktion der Transformation zugrunde gelegt wird. Dies hat den Vorteil, dass die Transformation effektiver abläuft, weil nicht für jedes Pixel eine Stimme im Parameterraum abgegeben werden muss, sondern ein Parameter der funktionalen Darstellung im Bildraum einfach in den Parameterraum transformiert bzw. umgerechnet werden kann.
  • Insbesondere ist vorgesehen, dass als Transformationsvorschrift eine Hough-Transformation verwendet wird, sodass der Parameterraum einem Hough-Raum entspricht. Dies hat den Vorteil, dass auf die Robustheit eines Hough-Raums zurückgegriffen werden kann.
  • Vorzugsweise umfasst das Transformieren der Regressionsfunktion eine Kerndichteschätzung (Kernel Density Estimation). Das bedeutet, dass jeder transformierte Bildpunkt nicht nur zu einer Koordinate bzw. Element im Parameterraum beiträgt, sondern auch zu einem bestimmten Bereich um das Element herum. Der Bereich um das Element herum wird mit einem der Kerndichteschätzung zugrunde liegenden Kern (kernel) bestimmt. Mögliche Kerne sind beispielsweise ein Gaußkern, ein Cauchy-Kern, ein Picard-Kern oder ein Epanechnikov-Kern. Der Vorteil bei diesem Vorgehen ist eine erhöhte Robustheit bei der Erstellung des Hough-Raums.
  • In einer weiteren Ausführungsform ist vorgesehen, dass das Detektieren des Objekts im Parameterraum umfasst, dass Werte des Parameterraums unter Verwendung einer Clustering-Methode zu Clustern zusammengefasst und die Cluster extrahiert werden. Das Zusammenfassen zu Clustern kann beispielsweise mit einem Mean-Shift-Algorithmus erfolgen. Vorteilhaft hierbei ist eine bessere Interpretierbarkeit des Hough-Raums; dies dient dazu, dass gesuchte Objekte präziser und weniger fehleranfällig aus dem Hough-Raum extrahiert werden können.
  • Ergänzend oder alternativ kann vorgesehen sein, dass das Detektieren des Objekts im Parameterraum umfasst, dass Werte des Parameterraums unter Verwendung einer Non-Maximum-Suppression-Methode extrahiert werden. Die Non-Maximum-Suppression-Methode wird häufig im Zusammenhang mit Kantendetektionsverfahren eingesetzt. Das Bild wird entlang der Gradientenrichtung abgescannt und, falls Bildpunkte nicht Teil eines lokalen Maximums sind, werden diese Bildpunkte auf Null gesetzt. Dies hat den Effekt, dass alle Bildpunkte, welche nicht Teil des lokalen Maximums sind, unterdrückt werden. Vorteilhaft ist die bessere Interpretierbarkeit des Hough-Raums; dies dient wiederum dazu, dass gesuchte Objekte präziser und weniger fehleranfällig aus dem Hough-Raum extrahiert werden können.
  • Ergänzend oder alternativ kann vorgesehen sein, dass das Detektieren des Objekts im Parameterraum umfasst, dass Werte des Parameterraums mit einem vorbestimmten Schwellwert verglichen und abhängig von dem Vergleich zur Detektion des Objekts extrahiert werden. Die Wirkung ist eine Reduzierung der Elemente im Hough-Raum. Auch diese Vorgehensweise hat den Vorteil, dass gesuchte Objekte besser aus dem Hough-Raum extrahiert werden können.
  • Insbesondere ist vorgesehen, dass in dem Bildraum Schnittpunkte der Regressionsfunktion einerseits mit den Kanten des Gradientenbilds andererseits bestimmt und in den Parameterraum transformiert werden. Dann kann ein Verlauf der transformierten Regressionsfunktion in dem Parameterraum unter Berücksichtigung der transformierten Schnittpunkte bestimmt werden. Durch diese Vorgehensweise kann der Parameterraum mit einem Anfangspunkt und einem Endpunkt erweitert werden, so dass die Linie in dem Hough-Raum präziser unter Verwendung des Anfangspunkts und des Endpunkts bestimmt werden kann. Eine unendliche Gerade wird hierdurch beispielsweise zu einer begrenzten Strecke mit einem Anfangspunkt und einem Endpunkt. Der Vorteil liegt in dem zusätzlichen Informationsgehalt des Hough-Raums. Hierdurch wiederum können Objekte präziser aus dem Hough-Raum extrahiert werden.
  • Ein erfindungsgemäßes Kamerasystem für ein Kraftfahrzeug ist zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet. Das Kamerasystem für ein Kraftfahrzeug umfasst zumindest eine Kamera zum Bereitstellen eines Bilds eines Umgebungsbereichs des Kraftfahrzeugs und eine Bildverarbeitungseinrichtung, welche dazu ausgelegt ist, ein erfindungsgemäßes Verfahren durchzuführen.
  • Ein erfindungsgemäßes Kraftfahrzeug, insbesondere ein Personenkraftwagen, beinhaltet ein erfindungsgemäßes Fahrerassistenzsystem.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Kamerasystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels, wie auch unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 in schematischer Darstellung eine Draufsicht auf ein Kraftfahrzeug mit einem Kamerasystem gemäß einer Ausführungsform der Erfindung, wobei das Kraftfahrzeug in eine Parklücke eingeparkt wird;
  • 2 in schematischer Darstellung eine Draufsicht auf das Kraftfahrzeug, welches auf einer mehrspurigen Straße fährt, wobei mittels des Kamerasystems die umliegenden Fahrbahnmarkierungen detektiert werden;
  • 3 ein Flussdiagramm eines Verfahrens gemäß einer Ausführungsform der Erfindung;
  • 4 ein durch eine Kamera des Kamerasystems bereitgestelltes beispielhaftes Bild eines Umgebungsbereichs des Kraftfahrzeugs;
  • 5 ein beispielhaftes Binärbild, bei welchem Kanten in horizontaler Richtung detektiert sind;
  • 6 ein beispielhaftes Binärbild, bei welchem Kanten in vertikaler Richtung detektiert sind;
  • 7 ein beispielhaftes Binärbild, bei welchem Linienelemente bzw. Mittellinien, welche jeweils mittels einer Regressionsfunktion basierend auf den horizontalen und den vertikalen Kanten berechnet sind, dargestellt sind;
  • 8 ein Binärbild von 4, bei welchem die Linienelemente bzw. Mittellinien, welche jeweils mittels einer Regressionsfunktion basierend auf den horizontalen und den vertikalen Kanten berechnet sind, dargestellt sind; und
  • 9 eine Darstellung eines Parameterraums, mit Ursprung links oben, Abszisse ρ und Ordinate θ, bei welchem eine Kerndichteschätzung zur Erstellung genutzt wurde.
  • In 1 ist schematisch eine Draufsicht auf ein Kraftfahrzeug 1 mit einem Kamerasystem 2 dargestellt, welches eine Kamera 3 und eine Bildverarbeitungsvorrichtung 4 umfasst. Das Kraftfahrzeug 1 wird in eine Parklücke 5 gemäß Pfeildarstellung 7 eingeparkt, welche durch Fahrbahnmarkierungen 6 begrenzt ist. Die Fahrbahnmarkierungen 6 gemäß 1 stellen also Parklückenmarkierungen dar. Hierbei werden durch das Kamerasystem 2 die Fahrbahnmarkierungen 6 detektiert, wobei diese Detektion durch die Bildverarbeitungsvorrichtung 4 anhand eines Bilds erfolgt, welches durch die Kamera 3 bereitgestellt und an die Bildverarbeitungseinrichtung 4 übermittelt wird. Das Kamerasystem 2 ist beispielsweise Teil eines Fahrassistenzsystems, welches einem Fahrer des Kraftfahrzeugs 1 zusätzliche Informationen, wie das Vorhandensein und die Position der Parklücke 5, zur Verfügung stellt, um einen präziseren, komfortableren und sichereren Einparkvorgang zu ermöglichen. Optional kann das Kamerasystem 2 auch einem Parkassistenzsystem zugeordnet sein, welches zum automatischen oder semi-autonomen Einparken des Kraftfahrzeugs 1 ausgebildet ist.
  • In 2 ist das Kraftfahrzeug 1 ebenfalls in einer schematischen Draufsicht gezeigt. Das Kraftfahrzeug 1 befindet sich auf einer dreispurigen Fahrbahn bzw. Straße 8, auf welcher Fahrbahnmarkierungen 6 als Fahrbahnlängsmarkierungen angebracht sind. Eine durchgezogene Fahrbahnmarkierung 9 kennzeichnet das seitliche Ende der Straße 8, während gestrichelte Fahrbahnmarkierungen 11 Fahrspuren 10 voneinander abgrenzen. Das Kamerasystem 2 detektiert die Fahrbahnmarkierungen 6 und kann somit den Fahrer dahingehend unterstützen, das Kraftfahrzeug 1 in der jeweiligen Fahrspur 10 zu halten und somit möglicherweise eine Unfallgefahr durch unbeabsichtigtes Verlassen der Fahrspur 10 zu vermeiden.
  • Im Weiteren wird der beispielhafte Ablauf des Verfahrens anhand von einem Programmablaufdiagram 12, das in 3 gezeigt ist, erläutert. Zuerst wird der Grauwertkanal eines Eingabebildes 13, welches vorliegend mit einem Fischaugenobjektiv aufgenommen ist, mithilfe von Lookup-Tabellen 14 zu einem Draufsichtbild 15 konvertiert. Die Lookup-Tabellen 14 beinhalten Geometriedaten der Kamera 3. Das Konvertieren kann beispielsweise mittels eines Nearest-Neighbourhood-Interpolationsverfahrens vorgenommen werden. Alternativ zu dem Nearest-Neighborhood-Interpolationsverfahren ist auch eine bilineare Interpolation möglich. Die bilineare Interpolation bezieht Intensitätswerte von umliegenden Bildpunkten des Eingabebildes 13 in das Interpolationsverfahren mit ein, um einen dementsprechend gewichteten und damit besser an die Umgebung des Bildpunkts im Draufsichtbild 15 angeglichenen Bildpunkt zu erhalten.
  • Im nächsten Prozessschritt 16 wird das Draufsichtbild 15 mit einem Glättungsfilter, beispielsweise einem Gaußfilter oder einem lokal angepassten Glättungsfilter, geglättet und das Histogramm des Draufsichtbildes 15 wird angeglichen (equalized). Das Glättungsfilter führt dazu, dass kleine hochfrequente Bereiche im Draufsichtbild eliminiert werden und für die folgenden Schritte nicht als störende Artefakte verbleiben. Der Histogrammangleich führt dazu, dass der gesamte Wertebereich des Draufsichtbildes 15, beispielsweise 8 Bit, gleichmäßig ausgenutzt wird. Dies ist insbesondere dann interessant, wenn zum Zeitpunkt der Bildaufnahme Lichtverhältnisse herrschen, für welche die Kamera nicht vorkonfiguriert ist und somit einer Unter- oder Überbelichtung ausgesetzt ist. Anschließend wird ein adaptives Schwellwertverfahren auf das Draufsichtbild 15 angewandt, welches ein Binärbild 17 zum Ergebnis hat. Das Binärbild 17 wird, um es von kleinen Artefakten zu reinigen, mit einem morphologischen Verfahren, insbesondere einem Opening oder Closing, entrauscht.
  • Danach, im Prozessschritt 18, werden in diesem Binärbild 17 nun Kanten 19 extrahiert. Dies geschieht zuerst für alle horizontal verlaufenden Kanten 20, wie in 5 gezeigt, und anschließend für alle vertikal verlaufenden Kanten 21, wie in 6 gezeigt. Durch Zusammenfassen der horizontalen Kanten 20 und der vertikalen Kanten 21 entsteht ein gesamtes Gradientenbild 22, wie es in 7 beispielhaft gezeigt ist. Das Gradientenbild 22 zeigt alle hochfrequenten Bereiche in dem Binärbild 17, d. h. Bildpunkte mit einer bestimmten Änderung der Intensität im Vergleich zu benachbarten Bildpunkten. Das Gradientenbild 22 kann beispielsweise mit einem Sobel-Operator, welcher horizontal und vertikal und optional zusätzlich auch diagonal angewendet wird, erzeugt werden. Eine weitere Methode, um das Gradientenbild 22 zu berechnen, stellt der Canny-Kanten-Detektor dar, welcher ebenfalls den Sobel-Operator beinhaltet.
  • Das Gradientenbild 22 weist nun Konturen 23 bzw. Umrisse von Objekten 24 (vergleiche auch 4) im Binärbild 17 auf, wobei eine der Konturen 23 aus mehreren Kanten 19 bestehen kann.
  • Ebenfalls in Prozessschritt 18 wird auf Basis des Gradientenbildes 22, welches in einem Bildraum 28 ist, eine Regressionsfunktionen 29 berechnet. Die Kontur 23 des jeweiligen Objektes 24 wird durch mindestens eine solche Regressionsfunktion 29 approximiert. Die grundlegende Form der Regressionsfunktion 29 wird im Voraus bestimmt, so ist beispielsweise eine gerade Funktion, eine elliptische Funktion, eine Kombination von mehreren geraden oder elliptischen Funktionen oder dergleichen möglich. Als Ergebnis dieses Regressionsschrittes erhält man zumindest ein Linienelement 30 in Form einer Mittellinie, welche durch die Mitte der Kontur 23 verläuft, wie in 7 zu sehen. Der Prozess ist ähnlich dem einer Skelettierung, aber weniger rechenaufwändig als diese.
  • Das Ergebnis der vorangegangenen Schritte ist in 4 und 8 beispielhaft gezeigt. In 4 ist ein beispielhaftes Eingabebild 13 gezeigt, welches Objekte 24 in Form eines Rads 25 mit einer Felge 26 und eine Parklückenmarkierung 27 beinhaltet. Die Parklückenmarkierung 27 weist eine T-Form auf und begrenzt die Parklücke 5 in zwei Richtungen. Das korrespondierende Binärbild 17 mit extrahierten Linienelementen 30 ist in 8 gezeigt. Deutlich zu sehen sind die Linienelemente 30, welche von der Felge 26 oder der Parklückenmarkierung 27 stammen.
  • Die vorliegenden Regressionsfunktionen 29 werden nun in einen Parameterraum 31 transformiert, der beispielhaft in 9 dargestellt ist. Der Parameterraum 31 ist im Ausführungsbeispiel ein Hough-Raum. Die Transformation kann mathematisch folgendermaßen dargestellt werden, wenn die Regressionsfunktion 29 beispielsweise in Form einer Geraden vorliegt: y = ax + b → θ = cot–1(–a), ρ = b·sin(θ); x = ay + b → θ = tan–1(–a), ρ = b·cos(θ); wobei:
    x und y die Koordinate im Bildkoordinatensystem definieren,
    a die Steigung der Regressionsfunktion 29 bezeichnet,
    b die Verschiebungskonstante der Regressionsfunktion 29 ist, und
    und ρ die Koordinate im Parameterraum 31 definieren.
  • Auf der linken Seite des in der obigen Gleichung gezeigten Pfeils ist die Regressionsfunktion 29 im Bildraum 28 und auf der rechten Seite des Pfeils die Umrechnung der Parameter a und b der Regressionsfunktion 29 in den Parameterraum 31 bzw. den Hough-Raum beschrieben, welcher durch θ und ρ definiert ist.
  • In einem Abstimmungsprozess, welcher entsprechend der ursprünglichen Hough-Transformation abläuft, werden nun Stimmen von den Linienelementen 30 für jedes Element 33 im Parameterraum 31 akkumuliert, um die Stärke bzw. Bedeutung eines Elementes 33 und somit eines Objektes 24 im Binärbild 17 bewerten zu können. Die Anzahl der Stimmen für ein bestimmtes Element 33 werden in Abhängigkeit von einer Länge der Linienelemente 30 bestimmt, welche für das Element 33 Stimmen abgeben. Die Länge kann entweder über die Anzahl der Bildpunkte oder über die Distanz zwischen Anfangs- und Endpunkt des Linienelements 30 bestimmt werden. Die Länge kann ebenfalls als Parameter in den Parameterraum 31 aufgenommen werden.
  • Der Vorteil dieses Vorgehens im Vergleich zu einer herkömmlichen Hough-Transformation ist, dass für die Transformation von dem Bildraum 28 zu dem Parameterraum 31 weniger Rechenleistung aufgewendet werden muss. Ein Grund dafür ist, dass nicht jeder einzelne Bildpunkt des Binärbildes 17 in den Parameterraum 31 transformiert wird, sondern nur jedes einzelne Linienelement 30, d. h. jede einzelne Regressionsfunktion 29. Zusätzlich ist der Parameterraum 31 im Vergleich zu einem herkömmlichen Hough-Raum „sauberer”, d. h. es befinden sich weniger Elemente 33 in ihm, was dazu führt, dass eine Analyse des Parameterraums 31 bzw. eine Extraktion der gesuchten Elemente 33 weniger rechenintensiv ablaufen kann.
  • Die Transformation in den Parameterraum 31 kann auch in Abhängigkeit einer Kerndichteschätzung erfolgen. Hierbei wird durch das Linienelement 30 bzw. die Regressionsfunktion 29 nicht nur eine Stimme für ein bestimmtes Element 33 (θ, ρ) im Parameterraum 31 abgegeben, sondern eine Nachbarschaft 34 um das bestimmte Element (θ, ρ) herum wird ebenfalls berücksichtigt und profitiert von der Stimme, wenn auch optional nur anteilig. Die Vorschrift, nach welcher der Bereich der Nachbarschaft 34 ausgewählt wird und welchen gewichteten Anteil an der Stimme die anderen Elemente 33 zugesprochen bekommen, welche sich in dem Bereich der Nachbarschaft 34 befinden, hängt von einem gewählten Kern ab. Oft wird der gewichtete Anteil der Stimme bezüglich des Abstands von transformiertem Element 33 zu dem benachbarten, von der anteiligen Stimme profitierenden Element abhängig gemacht. Mögliche Kerne sind beispielsweise ein Gaußkern, ein Cauchy-Kern, ein Picard-Kern oder ein Epanechnikov-Kern.
  • Für den Fall, dass die Länge der Linienelemente 30 der Regressionsfunktionen 29 als Parameter in den Parameterraum 31 mit aufgenommen wird und die Kerndichteschätzung angewandt wird, kann die Länge als Multiplikator des Kerns eingesetzt werden.
  • Ein beispielhafter Parameterraum 31 mit den Achsen θ und ρ ist in 9 gezeigt. Für die Transformation vom Bildraum 28 in den Parameterraum 31 ist ein parabolischer Kern verwendet worden, weshalb kreisförmige Elemente 33 entstanden sind. Im vorliegenden Beispiel repräsentiert jedes Element 33 im Parameterraum 31 eine Linie und somit eine Regressionsfunktion 29 im Bildraum 28.
  • In einem folgenden Prozessschritt 32 werden gesuchte bzw. bedeutende Elemente 33 des Parameterraums 31, die jeweils für ein gesuchtes bzw. bedeutendes Objekt 24 im Bildraum 28, im vorliegenden Beispiel das Linienelement 30, stehen, in dem Parameterraum 31 ermittelt. Dies erfolgt mit einer Clustering-Methode und/oder mit einer Non-Maximum-Suppression-Methode und/oder mit einer Schwellwertmethode.
  • Die Clustering-Methode fasst bestimmte Bereiche in dem Parameterraum 31 zusammen. Es gibt hierfür eine Vielzahl von Möglichkeiten, wie beispielsweise einen k-means-Algorithmus und/oder einen BIRCH (balanced iterative reducing and clustering using hierarchies) Algorithmus. Die Non-Maximum-Suppression-Methode verfolgt das Ziel, nur Elemente 33 des Parameterraumes 31 zu berücksichteigen welche zu einem lokalen Optimum gehören. Eine Reduzierung des Parameterraumes 31 wird ebenfalls mit der Schwellwertmethode erreicht, wobei Elemente 33 des Parameterraums 31, welche unter oder über einem gewissen Schwellwert liegen, vom weiteren Vorgehen ausgeschlossen werden. Der Sinn dieser zuletzt genannten Verfahren ist eine Reduzierung des Parameterraumes 31 auf das Wesentliche um eine im Anschluss folgende Analyse zu vereinfachen und zu verbessern.
  • In einem parallelen Prozessschritt 35 werden die Linienelemente 30 der Regressionsfunktion 29 mit den Kanten 19 des Binärbilds 17 abgeglichen. Als Folge erhält man Markierungen 36 in Form von Koordinaten, welche jeweils dem Schnittpunkt der Kontur 23 des Objektes 24 des Binärbildes 17 mit dem Linienelement 30 entsprechen.
  • Diese Markierungen 36 werden in einem weiteren Prozessschritt 37 ebenfalls in den Parameterraum 31 transformiert. Zweck der Markierungen 36 ist, dass Elemente 33 im Parameterraum 31, welche beispielsweise bisher nur als eine Gerade vorliegen, nun mit weiteren Parametern wie Endpunkten 38 versehen werden können und somit als eine am Anfang und am Ende begrenzte Kurve, im vorliegend Beispiel als eine Strecke, verfügbar sind.
  • Der beispielhafte Parameterraum 31, welcher nun die Parameter θ, ρ und zwei Endpunkte pro Element 33 enthält, wird schließlich in Prozessschritt 39 mit einer höheren Logik verarbeitet und schließlich über eine API (application programming interface) einer Karte 40 zur Verfügung gestellt.
  • Der Parameterraum 31 ist jedoch nicht auf die erwähnten Parameter beschränkt. So sind beispielsweise im Fall einer Regressionsfunktion 29, welche von höherer Ordnung ist als die gerade Regressionsfunktion 29 im angeführten Beispiel, auch dementsprechend mehr Parameter nötig, um das Linienelement 30 bzw. eine Kurve der Regressionsfunktion 29 zu beschreiben.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 3069654 A [0002]

Claims (11)

  1. Verfahren zur Detektion eines Objekts (24) mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs (1) mittels eines Kamerasystems (2) des Kraftfahrzeugs (1), mit den Schritten: – Bereitstellen eines Bilds (13) des Umgebungsbereichs mittels einer Kamera 3 des Kamerasystems (2), – Erzeugen eines Gradientenbilds (22) aus dem Bild (13) mittels einer Bildverarbeitungseinrichtung (4) des Kamerasystems (2), – Bestimmen einer Regressionsfunktion (29) aus Kanten (19) des Gradientenbilds (22) durch die Bildverarbeitungseinrichtung (4), wobei die Regressionsfunktion (29) eine der geometrischen Form des Objekts (24) entsprechende Form aufweist, – Transformieren der Regressionsfunktion (29) von einem Bildraum (28) des Gradientenbilds (22) in einen Parameterraum (31) unter Verwendung einer vorbestimmten Transformationsvorschrift durch die Bildverarbeitungseinrichtung (4) und – Detektieren des Objekts (24) anhand der transformierten Regressionsfunktion (29) in dem Parameterraum (31).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Objekt (24) eine auf einer Fahrbahn (8) angebrachte Fahrbahnmarkierung (6), insbesondere eine eine Parklücke (5) begrenzende Parklückenmarkierung (27) und/oder eine eine Fahrspur (10) begrenzende Fahrbahnlängsmarkierung (9, 11), durch das Kamerasystem (2) detektiert wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als Objekt (24) zumindest eines der folgenden Objekte (24) durch das Kamerasystem (2) detektiert wird: – ein Objekt (24) mit zumindest einer geradlinigen Kante, wobei als Regressionsfunktion (29) eine gerade Funktion verwendet wird, und/oder – ein Objekt (24) mit einer ovalen, insbesondere kreisförmigen, Kontur, wobei als Regressionsfunktion (29) eine ovale, insbesondere kreisförmige, Funktion verwendet wird, und/oder – ein Objekt (24) mit einer T-förmigen und/oder L-förmigen Kontur.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als die Transformationsvorschrift eine Hough-Transformation verwendet wird, sodass der Parameterraum (31) einem Hough-Raum entspricht.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Transformieren der Regressionsfunktion (29) eine Kerndichteschätzung umfasst.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Detektieren des Objekts (24) im Parameterraum (31) umfasst, dass Werte des Parameterraums (31) unter Verwendung einer Clustering-Methode zu Clustern zusammengefasst und die Cluster extrahiert werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Detektieren des Objekts (24) im Parameterraum (31) umfasst, dass Werte des Parameterraums (31) unter Verwendung einer Non-Maximum-Suppression-Methode extrahiert werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Detektieren des Objekts (24) im Parameterraum (31) umfasst, dass Werte des Parameterraums (31) mit einem vorbestimmten Schwellwert verglichen und abhängig von dem Vergleich extrahiert werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in dem Bildraum (28) Schnittpunkte (36) der Regressionsfunktion (29) einerseits mit den Kanten (19) des Gradientenbilds (22) andererseits bestimmt und in den Parameterraum (31) transformiert werden, wobei ein Verlauf der transformierten Regressionsfunktion (29) in dem Parameterraum (31) unter Berücksichtigung der transformierten Schnittpunkte (36) bestimmt wird.
  10. Kamerasystem (2) für ein Kraftfahrzeug (1), mit zumindest einer Kamera (3) zum Bereitstellen eines Bilds eines Umgebungsbereichs des Kraftfahrzeugs (1), und mit einer Bildverarbeitungseinrichtung (4), welche dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  11. Kraftfahrzeug (1), insbesondere Personenkraftwagen, mit einem Kamerasystem (2) nach Anspruch 10.
DE102014109063.2A 2014-06-27 2014-06-27 Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug Pending DE102014109063A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014109063.2A DE102014109063A1 (de) 2014-06-27 2014-06-27 Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP15165780.6A EP2960827A1 (de) 2014-06-27 2015-04-29 Verfahren zur detektion eines objekts mit einer vorbestimmten geometrischen form in einem umgebungsbereich eines kraftfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014109063.2A DE102014109063A1 (de) 2014-06-27 2014-06-27 Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102014109063A1 true DE102014109063A1 (de) 2015-12-31

Family

ID=53058993

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014109063.2A Pending DE102014109063A1 (de) 2014-06-27 2014-06-27 Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Country Status (2)

Country Link
EP (1) EP2960827A1 (de)
DE (1) DE102014109063A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107710229A (zh) * 2016-10-20 2018-02-16 深圳配天智能技术研究院有限公司 图像中的形状识别方法、装置、设备及计算机存储介质
CN109190483A (zh) * 2018-08-06 2019-01-11 武汉大学 一种基于视觉的车道线检测方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390306B (zh) * 2019-07-25 2021-08-10 湖州宏威新能源汽车有限公司 直角车位的检测方法、车辆和计算机可读存储介质
JP2022010577A (ja) * 2020-06-29 2022-01-17 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
CN113096145B (zh) * 2021-03-29 2024-05-14 毫末智行科技有限公司 基于霍夫变换及线性回归的目标边界检测方法及装置
CN113792601B (zh) * 2021-08-10 2024-01-12 武汉光庭信息技术股份有限公司 基于霍夫直线检测结果的车位线拟合方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US20130128045A1 (en) * 2011-11-21 2013-05-23 Analog Devices, Inc. Dynamic liine-detection system for processors having limited internal memory
WO2013151266A1 (en) * 2012-04-04 2013-10-10 Movon Corporation Method and system for lane departure warning based on image recognition

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8970701B2 (en) * 2011-10-21 2015-03-03 Mesa Engineering, Inc. System and method for predicting vehicle location
US9633436B2 (en) * 2012-07-26 2017-04-25 Infosys Limited Systems and methods for multi-dimensional object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US20130128045A1 (en) * 2011-11-21 2013-05-23 Analog Devices, Inc. Dynamic liine-detection system for processors having limited internal memory
WO2013151266A1 (en) * 2012-04-04 2013-10-10 Movon Corporation Method and system for lane departure warning based on image recognition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107710229A (zh) * 2016-10-20 2018-02-16 深圳配天智能技术研究院有限公司 图像中的形状识别方法、装置、设备及计算机存储介质
CN107710229B (zh) * 2016-10-20 2021-02-26 深圳配天智能技术研究院有限公司 图像中的形状识别方法、装置、设备及计算机存储介质
CN109190483A (zh) * 2018-08-06 2019-01-11 武汉大学 一种基于视觉的车道线检测方法
CN109190483B (zh) * 2018-08-06 2021-04-02 武汉大学 一种基于视觉的车道线检测方法

Also Published As

Publication number Publication date
EP2960827A1 (de) 2015-12-30

Similar Documents

Publication Publication Date Title
DE102014109063A1 (de) Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP3629241A1 (de) Vorrichtung und verfahren zur automatischen bildverbesserung bei fahrzeugen
DE102015121339A1 (de) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE102015212786A1 (de) Fahrspurgrenzlinienerkennungsvorrichtung und computerlesbares Speichermedium, das ein Programm zum Erkennen von Fahrspurgrenzlinien auf einer Straße speichert
DE102015205225A1 (de) Verfahren und Vorrichtung zum Erkennen eines Zielobjekts im toten Winkel eines Fahrzeugs
DE102015212349A1 (de) Fehlererfassungsvorrichtung und fehlererfassungsprogramm
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE102015104098A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102015111907B4 (de) Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung
WO2013072231A1 (de) Verfahren zur nebeldetektion
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE112014000896T5 (de) Vorrichtung zum Unterdrücken einer Abweichung von einer Spurgrenzlinie
DE102015208428A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Umwelteinflüssen und Fahrbahnzustandsinformationen im Fahrzeugumfeld
DE102013207575A1 (de) Objekterkennungsvorrichtung
DE102015207902A1 (de) Verfahren und Vorrichtung zur Bestätigung des relevanten inneren weißen Kreises bei der Erkennung des Umfelds eines kreisförmigen Verkehrszeichens
DE102010035812A1 (de) Strassenmarkierungslinien-Erkennungsvorrichtung für Fahrzeuge
DE112009003648B4 (de) Verfahren und Vorrichtung zur Barrierentrennung
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
EP3642758B1 (de) Verfahren zum auswerten eines optischen erscheinungsbildes in einer fahrzeugumgebung und fahrzeug
DE102020105070A1 (de) Verfahren zum Erkennen eines befahrbaren Bereichs in einer Umgebung eines Fahrzeugs mithilfe eines binären künstlichen neuronalen Netzes, Recheneinrichtung sowie Fahrerassistenzsystem
DE102014007565A1 (de) Verfahren zum Ermitteln einer jeweiligen Grenze zumindest eines Objekts, Sensorvorrichtung, Fahrerassistenzeinrichtung und Kraftfahrzeug
EP2696310B1 (de) Verfahren zum Identifizieren eines Straßenrands
EP4053593A1 (de) Verarbeitung von sensordaten in einem fortbewegungsmittel
DE102014009139A1 (de) Fahrstreifenerkennungsverfahren und Fahrstreifenerkennungssystem, die eine Fotografiereinheit verwenden
DE102015112389A1 (de) Verfahren zum Erfassen zumindest eines Objekts auf einer Straße in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000