DE102019102561A1 - Process for recognizing a plaster marking - Google Patents

Process for recognizing a plaster marking Download PDF

Info

Publication number
DE102019102561A1
DE102019102561A1 DE102019102561.3A DE102019102561A DE102019102561A1 DE 102019102561 A1 DE102019102561 A1 DE 102019102561A1 DE 102019102561 A DE102019102561 A DE 102019102561A DE 102019102561 A1 DE102019102561 A1 DE 102019102561A1
Authority
DE
Germany
Prior art keywords
image
pixels
vehicle
camera
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019102561.3A
Other languages
German (de)
Inventor
Csaba Purszki
Ruben Fontan
Paul Moran
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102019102561.3A priority Critical patent/DE102019102561A1/en
Publication of DE102019102561A1 publication Critical patent/DE102019102561A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Ein Verfahren zum Erkennen einer Pflastermarkierung in einem Bild einer Umgebung eines Fahrzeugs (1) umfasst das Erfassen (50) von mindestens zwei Bildern von im Wesentlichen der gleichen Umgebung von einer oder mehreren Kameras (3); Identifizieren (52) innerhalb jedes Bilds mindestens einen Punkt auf einer Oberfläche eines 3-dimensionalen Objekts innerhalb des Blickfelds der einen oder mehreren Kameras; Ausschließen (54) von Pixeln innerhalb eines Bilds der mindestens zwei Bilder, hinter der Oberfläche des 3-dimensionalen Objekts relativ zu der Kameraposition angeordnet, für das Bild aus der Analyse auf die Anwesenheit von Pflastermarkierungen; Analysieren (56) mindestens eines Abschnitts von nicht ausgeschlossenen Pixeln von dem Bild zum Identifizieren von Pflastermarkierungen; und Liefern von Details für mindestens einige der identifizierten Pflastermarkierungen an ein Fahrerassistenzsystem, um die Kontrolle des Fahrzeugs (1) zu unterstützen.A method for recognizing a pavement marking in an image of the surroundings of a vehicle (1) comprises the acquisition (50) of at least two images of essentially the same surroundings by one or more cameras (3); Identifying (52) within each image at least one point on a surface of a 3-dimensional object within the field of view of the one or more cameras; Excluding (54) pixels within an image of the at least two images, located behind the surface of the 3-dimensional object relative to the camera position, for the image from analysis for the presence of patch marks; Analyzing (56) at least a portion of non-excluded pixels from the image to identify patch marks; and supplying details for at least some of the identified plaster markings to a driver assistance system in order to support the control of the vehicle (1).

Description

Gebietarea

Die vorliegende Erfindung betrifft ein Verfahren zum Erkennen einer Pflastermarkierung in einem Bild einer Umgebung eines Fahrzeugs.The present invention relates to a method for recognizing a plaster marking in an image of an environment of a vehicle.

Allgemeiner StandGeneral status

Die Erkennung von Pflastermarkierungen ist von großer Signifikanz für mehrere verschiedene Fahrerassistenzsysteme einschließlich autonomer Fahrsysteme, Spurhaltersysteme oder Systeme zum Detektieren oder Erkennen von Stellplätzen/-räumen. Beispielsweise ist es wünschenswert, dass ein Stellplatz-Erkennungssystem in einem Stellbereich die Abmessungen, die Position und die Orientierung etwaiger Stellplätze erkennt. Solche Stellplatz-Erkennungssysteme können ausgebildet sein zum Unterstützen einer Parkoperation des Fahrzeugs in einem detektierten Stellplatz entweder aktiv (beispielsweise durch Intervenieren in eine Fahrfunktion des Fahrzeugs) oder passiv (beispielsweise durch Liefern von Fahranweisungen für einen Fahrer des Fahrzeugs).The detection of pavement markings is of great significance for several different driver assistance systems including autonomous driving systems, lane keeping systems or systems for detecting or recognizing parking spaces / spaces. For example, it is desirable for a parking space detection system to recognize the dimensions, the position and the orientation of any parking spaces in a parking area. Such parking space detection systems can be designed to support a parking operation of the vehicle in a detected parking space either actively (for example by intervening in a driving function of the vehicle) or passively (for example by providing driving instructions for a driver of the vehicle).

Bekannterweise werden beispielsweise Pflastermarkierungen auf Basis einer oder mehrerer aus der Umgebung des Fahrzeugs erfasster Bilder durch Ausbilden von Bildgradienten über verschiedenen Bereichen der Bilder und dann Erkennen einer Pflastermarkierung erkannt, falls ein Bildgradient einem vorbestimmten Muster entspricht.As is known, for example, plaster markings are recognized on the basis of one or more images captured from the surroundings of the vehicle by forming image gradients over different areas of the images and then recognizing a plaster marking if an image gradient corresponds to a predetermined pattern.

Es versteht sich, dass zum korrekten Funktionieren eines beliebigen Fahrerassistenzsystems es erforderlich ist, dass Pflastermarkierungen mit ausreichenden Graden an Empfindlichkeit und Selektivität zuverlässig und sicher erkannt werden.It goes without saying that in order for any driver assistance system to function correctly, it is necessary for patch markings with sufficient degrees of sensitivity and selectivity to be reliably and reliably recognized.

US2008/136673A detektiert Stellplätze innerhalb eines vogelperspektiven (oder zu betrachtenden) Bilds. US2008 / 136673A detects parking spaces within a bird's eye view (or to be viewed).

KR2008/0024776A detektiert Stellplatzmarkierungen und danach den Stellraum unter Verwendung einer Hough-Transformation. KR2008 / 0024776A detects parking space markings and then the parking space using a Hough transformation.

US2013/265429A erkennt einen durch Linienmarkierungen bezeichneten Stellplatz. Er verwendet einen Eckenerfassungsprozess zum Erfassen einer abgewinkelten Ecke in einem die Stellraum-Linienmarkierung enthaltenden Bild und einen Kreuzerfassungsprozess zum Erfassen eines Kreuzpunkts durch Kombinieren benachbarter Ecken unter den erfassten Ecken. Ein Raumerfassungsprozess erfasst einen Raum, der eine Endperipherie der Parkraum-Linienmarkierung ist, durch Kombinieren der erfassten Kreuzpunkte. Infolgedessen wird ein Wahlprozess verwendet zum Wählen der gewünschten Art des Stellraums. US2013 / 265429A recognizes a parking space identified by line markings. It uses a corner detection process to detect an angled corner in an image containing the space line marker and a cross detection process to detect a cross point by combining adjacent corners under the detected corners. A space detection process detects a space that is an end periphery of the parking space line marker by combining the detected cross points. As a result, a selection process is used to select the desired type of storage space.

US2014/112542A beschreibt ein Verfahren zum Erkennen von durch Linienmarkierungen definierten Stellräumen. Es detektiert mehrere Stellraumkandidaten in einem Eingangsbild und filtert diese auf Basis des Überlappungsgrads zwischen dem detektierten Parken und dem Helligkeitsgrad der Linien, um den besten Stellraumkandidaten zu wählen. US2014 / 112542A describes a method for recognizing parking spaces defined by line markings. It detects several parking space candidates in an input image and filters them based on the degree of overlap between the detected parking space and the degree of brightness of the lines in order to select the best storage space candidate.

US2016/307052A erkennt Stellplätze unter Verwendung eines Eingangsbilds und einer Fahrzeugbewegung auf Basis eines fahrzeuginternen Bewegungssensors. Es identifiziert Merkmale innerhalb des Eingangsbilds nach Anwenden einer Inverse-Transformation-Perspektive, konstruiert dann eine Karte dieser Merkmale relativ zum Fahrzeug und verwendet ein geometrisches Modell zum Identifizieren der Orientierung der Stellräume relativ zum Fahrzeug. US2016 / 307052A recognizes parking spaces using an input image and vehicle movement based on an in-vehicle motion sensor. It identifies features within the input image after applying an inverse transformation perspective, then constructs a map of these features relative to the vehicle and uses a geometric model to identify the orientation of the parking spaces relative to the vehicle.

US2017/096167A offenbart eine Parkführungsvorrichtung, die Folgendes enthält: eine Bilderhaltungseinrichtung zum Aufnehmen eines Bilds um ein Fahrzeug; einen Bildprozessor zum Generieren eines Around-View-Monitoring(AVM)-Bilds durch Verwenden von durch die Bilderhaltungseinrichtung erhaltenen Bildern; und einen Controller. Beim Eintreten in einen Parkführungsmodus zeigt der Controller eine Parkpositionsmarkierung nahe einem Fahrzeug innerhalb des AVM-Bilds an, bestimmt einen Zielstellplatz unter Verwendung der Parkpositionsmarkierung, zeigt eine Punktmarkierung zum Setzen einer Anfangsbewegungsposition an, von der aus das Fahrzeug sich in den Zielstellplatz bewegen kann, führt eine Bewegung des Fahrzeugs zu der Anfangsbewegungsposition unter Verwendung der Punktmarkierung und führt das Fahrzeug zum Bewegen in den Zielstellplatz, wenn das Fahrzeug die Anfangsbewegungsposition erreicht. US2017 / 096167A discloses a parking guidance device including: an image acquisition device for taking an image around a vehicle; an image processor for generating an around view monitoring (AVM) image by using images obtained by the image acquisition device; and a controller. Upon entering a parking guidance mode, the controller displays a parking position mark near a vehicle within the AVM image, determines a target parking space using the parking position mark, displays a dot mark for setting an initial moving position from which the vehicle can move into the target parking space movement of the vehicle to the initial movement position using the dot mark and causes the vehicle to move to the target parking space when the vehicle reaches the initial movement position.

Die deutsche Patentanmeldung Nr. DE102018113559.9 (Ref: SIE688), am 7. Juni 2018 eingereicht, offenbart das Erkennen einer Spurmarkierung für ein Fahrzeug durch Detektieren einer potentiellen Spurmarkierung in einem Bild der Umgebung, Bestimmen einer Entwicklung der potentiellen Spurmarkierung quer zu einer Haupterstreckungsrichtung (der potentiellen Spurmarkierung als Linienbreite der potentiellen Spurmarkierung und Erkennen der Spurmarkierung durch Validieren der potentiellen Spurmarkierung als plausibel auf der Basis ihrer Linienbreite.German patent application no. DE102018113559.9 (Ref: SIE688), filed June 7, 2018, discloses recognizing a lane marking for a vehicle by detecting a potential lane marking in an image of the environment, determining a development of the potential lane marking across a main direction of extension (the potential lane marking as the line width of the potential) Lane marking and recognition of the lane marking by validating the potential lane marking as plausible based on its line width.

Kurze DarstellungShort presentation

Gemäß der vorliegenden Erfindung wird ein Verfahren zum Erkennen einer Pflastermarkierung in einem Bild einer Umgebung eines Fahrzeugs gemäß Anspruch 1 bereitgestellt.According to the present invention, a method for recognizing a plaster marking in an image of an environment of a vehicle according to claim 1 is provided.

Weitere Aspekte der Erfindung stellen eine Steuereinrichtung, ein Kamerasystem, ein Fahrerassistenzsystem, ein Computerprogrammprodukt und ein Kraftfahrzeug, ausgebildet zum Durchführen der Verfahren nach den Ansprüchen, bereit.Further aspects of the invention provide a control device, a camera system, a driver assistance system, a computer program product and a motor vehicle, designed to carry out the method according to the claims.

Ausführungsformen blenden Pixel entsprechend 3-dimensionalen Objekten aus Bildern einer Umgebung aus, da diese eine übliche Quelle für falsche Positive für ein beliebiges System sein können, das versucht, Pflastermarkierungen zu detektieren. Zu Beispielen für diese falschen Positiven zählen beliebige Merkmale, Reflexionen oder helle Gebiete auf den Oberflächen solcher 3-dimensionaler Objekte.Embodiments hide pixels corresponding to 3-dimensional objects from images of an environment because they can be a common source of false positives for any system that tries to detect patch marks. Examples of these false positives include any features, reflections or bright areas on the surfaces of such 3-dimensional objects.

Dies wiederum kann die Analyse des Rests von solchen Bildern zum Anwenden von geeigneteren Kriterien zum Detektieren von Pflastermarkierungen ohne das Generieren von falschen Positiven aus den Oberflächen von 3-dimensionalen Objekten ermöglichen.This in turn can allow analysis of the remainder of such images to apply more appropriate criteria to detect patch marks without generating false positives from the surfaces of 3-dimensional objects.

Ausführungsformen der Erfindung können eine Oberfläche eines 3-dimensionalen Objekts als das Ausmaß von Freiraum auf einem Pflaster behandeln, innerhalb dessen ein Fahrzeug navigieren kann. Zudem braucht ein Fahrerassistenzsystem nur innerhalb dieses Freiraums vorteilhafterweise nach Pflastermarkierungen zu suchen, die durch das Fahrerassistenzsystem verwendet werden können.Embodiments of the invention can treat a surface of a 3-dimensional object as the amount of space on a pavement within which a vehicle can navigate. In addition, a driver assistance system advantageously only needs to search within this free space for pavement markings that can be used by the driver assistance system.

Ein Vorteil des vorliegenden Ansatzes besteht darin, dass es direkt auf falsche Positive abzielt und gleichzeitig einen minimalen Effekt auf die Rate der wahren Positiven hat.An advantage of the present approach is that it targets false positives directly and at the same time has a minimal effect on the rate of true positives.

FigurenlisteFigure list

Eine Ausführungsform der Erfindung wird nun beispielhaft unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben. Es zeigen:

  • 1 eine Draufsicht auf ein Fahrzeug mit einem Kamerasystem gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ein durch die Kamera von 1 aufgenommenes beispielhaftes Bild;
  • 3 aus dem Bild von 2 erfasste Informationen, auf eine horizontale Ebene transformiert;
  • 4 aus einer Analyse zur Anwesenheit von Pflastermarkierungen ausgeschlossene Bildpixel gemäß einer Ausführungsform der vorliegenden Erfindung; und
  • 5 ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung.
An embodiment of the invention will now be described by way of example with reference to the accompanying drawings. Show it:
  • 1 a plan view of a vehicle with a camera system according to an embodiment of the present invention;
  • 2nd one by the camera of 1 example image taken;
  • 3rd from the image by 2nd captured information, transformed to a horizontal level;
  • 4th image pixels excluded from analysis for the presence of patch marks according to an embodiment of the present invention; and
  • 5 a method according to an embodiment of the present invention.

Beschreibung der AusführungsformDescription of the embodiment

Nunmehr wird unter Bezugnahme auf 1 eine Draufsicht eines Fahrzeugs 1 mit einem Kamerasystem 2, das eine Kamera 3 und eine Evaluierungseinheit 4 enthält, gemäß einer Ausführungsform der Erfindung gezeigt. In der Ausführungsform ist die Kamera 3 an einem Heck 5 des Fahrzeugs 1 angeordnet, so dass Bilder von mindestens dem Teil eines am Heck 5 des Fahrzeugs 1 befindlichen Umgebungsgebiets 6 durch die Kamera 3 aufgenommen und im Hinblick auf ein Erkennen etwaiger Pflastermarkierungen in dem Umgebungsgebiet 6 des Fahrzeugs 1 an die Evaluierungseinheit 4 geliefert werden können.Now referring to 1 a top view of a vehicle 1 with a camera system 2nd that's a camera 3rd and an evaluation unit 4th contains, shown according to an embodiment of the invention. In the embodiment, the camera is 3rd at a stern 5 of the vehicle 1 arranged so that pictures of at least part of one at the stern 5 of the vehicle 1 surrounding area 6 through the camera 3rd recorded and with a view to recognizing any plaster markings in the surrounding area 6 of the vehicle 1 to the evaluation unit 4th can be delivered.

Man beachte, dass sich in der vorliegenden Anmeldung der Ausdruck Pflaster auf eine beliebige Oberfläche bezieht, über dem sich das Fahrzeug 1 befinden kann, während Pflastermarkierung eine beliebige Verkehrssteuereinrichtung beinhaltet, die sich auf einer Pflasteroberfläche befindet, einschließlich Linienmarkierungen, ob durchgehend oder unterbrochen oder erhabene Pflastermarkierungen, RPMs, deren Ort von einem Fahrerassistenzsystem nützlich verwendet werden kann.Note that in the present application, the term pavement refers to any surface over which the vehicle is located 1 may be located while pavement marking includes any traffic control device located on a pavement surface, including line markings, whether continuous or broken, or raised pavement markings, RPMs, the location of which can be usefully used by a driver assistance system.

Es versteht sich dennoch, dass das Kamerasystem 2 mehrere Kameras mit einer bekannten räumlichen und Ausrichtungsbeziehung und Projektionsmodell beinhalten kann, so dass beispielsweise von separaten Kameras gelieferte Bilder zusammengeheftet werden können, um ein zusammengesetztes Bild mit einem Blickfeld zu liefern, das sich um einen größeren Abschnitt der Umgebung des Fahrzeugs erstreckt, als von einer beliebigen einzelnen Kamera erfasst werden könnte. Beispielsweise könnten in diesem Fall solche Kameras an den Seiten und/oder der Vorderseite des Fahrzeugs 1 angeordnet sein und könnten beispielsweise ansonsten verwendet werden, um eine Vogelperspektive einer Umgebung des Fahrzeugs zu erzeugen. Es versteht sich, dass sich die Evaluierungseinheit 4 beliebig in dem Fahrzeug befinden kann und dass die Evaluierungseinheit 4 in die oder in jede Kamera integriert oder als eine separate Einheit und/oder mehrere Komponenteneinheiten ausgebildet sein kann.It is understood, however, that the camera system 2nd may include multiple cameras with a known spatial and orientation relationship and projection model so that, for example, images provided by separate cameras may be stitched together to provide a composite image with a field of view that extends a greater portion of the area around the vehicle than one any single camera could be captured. In this case, for example, such cameras could be on the sides and / or the front of the vehicle 1 arranged and could otherwise be used, for example, to create a bird's eye view of the surroundings of the vehicle. It is understood that the evaluation unit 4th can be anywhere in the vehicle and that the evaluation unit 4th can be integrated into or into each camera or can be designed as a separate unit and / or several component units.

Jedenfalls befassen sich Ausführungsformen der Erfindung mit dem Identifizieren von 3-dimensionalen Objekten wie etwa dem Objekt 7 in dem Umgebungsgebiet 6 des Fahrzeugs 1 und Berücksichtigen dieser Objekte beim Erkennen von etwaigen Pflastermarkierungen in Bildern des Umgebungsgebiets 6. Solche 3-dimensionalen Objekte können als Objekte mit einer Oberfläche definiert werden, die sich mehr als ein Schwellwertausmaß weg von einer Oberfläche des Pflasters erstrecken, auf dem sich das Kraftfahrzeug 1 befindet.In any case, embodiments of the invention are concerned with identifying 3-dimensional objects such as the object 7 in the surrounding area 6 of the vehicle 1 and taking these objects into account when recognizing any pavement markings in images of the surrounding area 6 . Such 3-dimensional objects can be defined as objects with a surface that extend more than a threshold amount away from a surface of the patch on which the motor vehicle is located 1 located.

Die Koordinaten von solchen Objekten 7 können in einem dreidimensionalen Weltkoordinatensystem ausgedrückt werden, das beispielsweise x-, y- und z-Koordinaten relativ zu einem Ursprung umfasst. Es versteht sich jedoch, dass ein beliebiges alternatives Koordinatensystem, beispielsweise auf Basis von Polarkoordinaten, ebenfalls verwendet werden könnte. The coordinates of such objects 7 can be expressed in a three-dimensional world coordinate system that includes, for example, x, y, and z coordinates relative to an origin. However, it goes without saying that any alternative coordinate system, for example based on polar coordinates, could also be used.

Es wird angenommen, dass Ausführungsformen den Ort und die Ausrichtung der Kamera 3 innerhalb des Koordinatensystems kennen. So kann beispielsweise bei einigen Ausführungsformen der Ort der Kamera 3 relativ zum Ursprung des Koordinatensystems mit einer Ausrichtung definiert sein, die relativ zu einer Achse des Systems definiert ist, herkömmlicherweise ist dies die x-Achse entsprechend einer Längsachse des Fahrzeugs (man beachte, dass dies nicht immer parallel zu einer Pflasteroberfläche sein muss). Der Ort und die Ausrichtung von beliebigen anderen Kameras im System können dann relativ zum Ort einer Referenzkamera wie etwa der Kamera 3 definiert werden.It is believed that embodiments include the location and orientation of the camera 3rd know within the coordinate system. For example, in some embodiments, the location of the camera 3rd defined relative to the origin of the coordinate system with an orientation defined relative to an axis of the system, conventionally this is the x-axis corresponding to a longitudinal axis of the vehicle (note that this does not always have to be parallel to a paved surface). The location and orientation of any other cameras in the system can then be relative to the location of a reference camera such as the camera 3rd To be defined.

Änderungen bei dem Ort und der Ausrichtung der Kamera 3 von Bildrahmen zu Bildrahmen, durch die Kamera erfasst, können beispielweise anhand der Fahrzeugodometrie bestimmt werden, abgegriffen von einem CAN-Bus des Kraftfahrzeugs 1, und/oder durch visuelle Odometrie, auf Basis von von der oder jeder Kamera des Fahrzeugs 1 erfassten Bildern. Diese Odometrie ermöglicht Winkeländerungen bei den Gier-, Nickinformationen und/oder dem Rollen des Fahrzeugs sowie Translationsänderungen bei der Position des Fahrzeugs zu bestimmen und anzuwenden auf den Ort und die Ausrichtung der Kamera 3. Die Position zum Platzieren des Maskierungsbereichs auf das Draufsichtsbild kann für Fahrzeugeigenbewegung unter Verwendung der mechanischen Odometrie von dem CAN-Bus kompensiert werden. Dies soll etwaige Differenzen bei den Zeitstempeln, die mit dem Bildankunftszeit- und -ausgabezeitstempel der Objektdetektionsalgorithmen assoziiert sind, und somit eine Eigenbewegung des Fahrzeugs innerhalb dieser Zeitperiode berücksichtigen.Changes in the location and orientation of the camera 3rd from frame to frame, captured by the camera, can be determined, for example, using vehicle odometry, tapped by a CAN bus of the motor vehicle 1 , and / or by visual odometry, based on the or each camera of the vehicle 1 captured images. This odometry enables changes in the angle of the yaw, pitch and / or the roll of the vehicle and translation changes in the position of the vehicle to be determined and applied to the location and orientation of the camera 3rd . The position for placing the masking area on the top view image can be compensated for in-vehicle movement using mechanical odometry from the CAN bus. This should take into account any differences in the time stamps associated with the image arrival time and output time stamp of the object detection algorithms, and thus take into account the vehicle's own movement within this time period.

Es versteht sich, dass, da sich das Fahrzeug über größere Distanzen bewegen kann, es bevorzugt sein kann, die Orts-/Ausrichtungswerte aller Objekte relativ zu der Kamera 3 beizubehalten, so dass im Wesentlichen die Kamera 3 (oder das Fahrzeug 1) so behandelt wird, als wenn es sich am Ursprung x, y=0,0 des Koordinatensystems befindet. Es versteht sich außerdem, dass das Pflaster in der unmittelbaren Umgebung des Fahrzeugs als im Wesentlichen eben angesehen werden kann, d.h. mit einem konstanten z-Koordinatenwert, und die Höhe der Kamera, d.h. ihre z-Koordinate, kann relativ zu dieser Oberfläche definiert werden.It is understood that since the vehicle can move over greater distances, it may be preferred to have the location / orientation values of all objects relative to the camera 3rd maintain, so essentially the camera 3rd (or the vehicle 1 ) is treated as if it were at the origin x, y = 0.0 of the coordinate system. It is also understood that the patch in the immediate vicinity of the vehicle can be viewed as substantially flat, ie with a constant z coordinate value, and the height of the camera, ie its z coordinate, can be defined relative to this surface.

WO2016/146559 (Ref: SIE0239) offenbart ein optisches Flussverfahren zum Detektieren 3-dimensionaler Objekte innerhalb der Umgebung eines Fahrzeugs 1 auf Basis des Erfassens eines Paars von Bildern mit einem gegebenen Objekt 7, von der Kamera 3 geliefert. WO2016 / 146559 (Ref: SIE0239) discloses an optical flow method for detecting 3-dimensional objects within the surroundings of a vehicle 1 based on capturing a pair of images with a given object 7 , from the camera 3rd delivered.

In einer ersten Position und Orientierung eines Fahrzeugs 1 wird ein erstes Bild durch die Kamera 3 geliefert, und in einer zweiten anderen Position und/oder Orientierung des Fahrzeugs 1 wird ein zweites Bild durch die Kamera 3 geliefert. In jedem des ersten und zweiten Bilds wird eine jeweilige Menge von charakteristischen Pixeln bestimmt. Die charakteristischen Pixel in jedem Bild können beispielsweise unter Verwendung von beispielsweise einem Harris-Operator bestimmt werden. Eine beliebige Anzahl von Techniken kann zum Korrelieren charakteristischer Pixel in einem Paar von Bildern verwendet werden, beispielsweise unter Verwendung von Texturübereinstimmung und/oder Odometrie zum Vorhersagen der Bewegung von Pixeln von einem Bildrahmen zu einem anderen. Wenn die jeweiligen x,y-Positionen eines gegebenen charakteristischen Pixels in jedem Bild bekannt sind und der jeweilige x,y,z-Ort, die Winkelausrichtung und das Projektionsmodell der Kamera 3 beim Erfassen jedes des ersten und zweiten Bilds bekannt sind, ist es möglich, charakteristische Pixel-x,y-Orte in das dreidimensionale Weltkoordinatensystem zu transformieren. Nebenbei bemerkt versteht sich, dass charakteristische Pixel auf relativ homogenen Pflasteroberflächen weniger häufig sind und mit größerer Wahrscheinlichkeit auf detaillierteren Oberflächen von 3-dimensionalen Objekten wie etwa anderen Fahrzeugen, Gebäuden oder sogar Straßenzeichen auftreten.In a first position and orientation of a vehicle 1 becomes a first picture through the camera 3rd delivered, and in a second different position and / or orientation of the vehicle 1 takes a second picture through the camera 3rd delivered. A respective set of characteristic pixels is determined in each of the first and second images. The characteristic pixels in each image can be determined, for example, using a Harris operator, for example. Any number of techniques can be used to correlate characteristic pixels in a pair of images, for example using texture matching and / or odometry to predict the movement of pixels from one image frame to another. When the respective x, y positions of a given characteristic pixel in each image are known and the respective x, y, z location, the angular orientation and the projection model of the camera 3rd upon acquiring each of the first and second images, it is possible to transform characteristic pixel x, y locations into the three-dimensional world coordinate system. Incidentally, it goes without saying that characteristic pixels are less common on relatively homogeneous pavement surfaces and are more likely to appear on more detailed surfaces of 3-dimensional objects such as other vehicles, buildings or even road signs.

So unter Bezugnahme auf 2, die eine typische Ansicht einer von der Kamera 3 erfassten Umgebung 6 veranschaulicht.So with reference to 2nd that is a typical view of one from the camera 3rd captured environment 6 illustrated.

Das Anwenden beispielsweise eines Harris-Operators auf diese Szene wird eine Anzahl von charakteristischen Pixeln auf den Oberflächen von Objekten wie etwa dem Fahrzeug 7 liefern. Das Verwenden eines anderen Bilds von im Wesentlichen der gleichen Umgebung, erfasst, wenn sich die Kamera 3 an einer anderen Position und/oder in einer anderen Orientierung befindet, ermöglicht das Bestimmen der x,y,z-Orte jener Pixel. Die verschiedenen, in 2 dargestellten vertikalen Linien geben Punkte P an, die auf Oberflächen mit einer Z-Koordinate detektiert werden, die größer ist als eine Schwellwerthöhe über der Pflasteroberfläche, und somit so angesehen wird, dass es sich um Punkte auf einer oder mehreren Oberflächen von einem oder mehreren 3-dimensionalen Objekten handelt.For example, applying a Harris operator to this scene will result in a number of characteristic pixels on the surfaces of objects such as the vehicle 7 deliver. Using a different image from essentially the same environment, captured when the camera is on 3rd located in a different position and / or in a different orientation enables the x, y, z locations of those pixels to be determined. The different, in 2nd The vertical lines shown indicate points P that are detected on surfaces with a Z coordinate that is greater than a threshold value height above the surface of the pavement, and are thus considered to be points on one or more surfaces of one or more 3 -dimensional objects.

Bei einigen Implementierungen kann ein jüngst erfasstes Bild von einer Kamera als ein erstes Referenzbild behandelt werden, wobei ein zuvor erfasstes (und wahrscheinlich zuvor zum Bestimmen von charakteristischen Pixeln verarbeitetes) Bild als ein zweites Bild behandelt wird, mit dem die x,y,z-Orte von charakteristischen Pixeln innerhalb des Referenzbilds bestimmt werden.In some implementations, a recently captured image from a camera can be considered a first reference image are treated, wherein a previously captured (and probably previously processed to determine characteristic pixels) image is treated as a second image that is used to determine the x, y, z locations of characteristic pixels within the reference image.

Nunmehr unter Bezugnahme auf 3, die eine Draufsicht des Umgebungsgebiets 6 von 2 zeigt, ist ersichtlich, wie die Punkte P nun auf die Ebene der Pflasteroberfläche abgebildet werden können und eine Polylinie C auf dieser Ebene definiert und die Punkte P von der Kameraposition auf der Ebene des Pflasters trennend definiert werden können. Bei einer Ausführungsform kann die Polylinie C mit mehreren Kontrollpunkten CP1...CPn definiert werden, den erforderlichen Freiheitsgrad bereitstellend zum engen Anpassen an den Umriss der Punkte P von der Oberfläche des Objekts 7 auf die Ebene der Pflasteroberfläche. Man beachte, dass eine beliebige Technik zum Definieren der Polylinie verwendet werden kann, und dies kann eine beliebige Form von Polylinie sein, einschließlich B-Spline, Bezier- oder Polynomkurve sowie nichtlineare Kurven umfassend beispielsweise mehrere diskrete Liniensegmente.Now referring to 3rd showing a top view of the surrounding area 6 from 2nd shows, it can be seen how the points P can now be mapped onto the plane of the plaster surface and how a polyline C can be defined on this plane and the points P can be defined separately from the camera position on the plane of the plaster. In one embodiment, the polyline C can be defined with multiple control points CP1 ... CPn, providing the required degree of freedom to closely conform to the outline of the points P from the surface of the object 7 to the level of the pavement surface. Note that any technique for defining the polyline can be used, and can be any form of polyline, including B-spline, Bezier or polynomial curve, and non-linear curves including, for example, multiple discrete line segments.

Wenn nun die x,y-Charakteristika eines beliebigen Punkts der Polylinie C in der Ebene der Pflasteroberfläche bekannt sind, ist es bei Kenntnis des Orts, der Winkelorientierung und des Projektionsmodells einer beliebigen diese Umgebung abbildenden Kamera möglich, jene Punkte der Polylinie C in die Bildebene der Kamera abzubilden.If the x, y characteristics of any point of the polyline C in the plane of the plaster surface are known, then with knowledge of the location, the angular orientation and the projection model of any camera imaging this environment, it is possible to place those points of the polyline C in the image plane the camera.

Somit kann, wie in 2 gezeigt, die Polylinie C auf ein beliebiges, durch die Kamera 3 erfasstes Bild projiziert werden.Thus, as in 2nd shown the polyline C on any, through the camera 3rd captured image are projected.

Wenn nun beispielsweise angenommen wird, dass die optische Achse (OA) der Kamera 3 auf die Mitte eines beliebigen derartigen Bilds ausgerichtet ist, können alle Bildpixel, die durch einen Punkt auf der Polylinie C von der Mitte des Bilds getrennt sind, aus einer Analyse bezüglich der Anwesenheit von Pflastermarkierungen ausgeschlossen werden.If, for example, it is now assumed that the optical axis (OA) of the camera 3rd Aligned to the center of any such image, all image pixels separated from the center of the image by a dot on polyline C can be excluded from analysis for the presence of patch marks.

Unter Bezugnahme auf 4 sind daher Pixel mit dem Gebiet EXCL, durch die Polylinie C begrenzt, der äußeren Kante des Bilds und Linien, die sich von der OA durch die Endkontrollpunkte CP1, CPn der Polylinie C erstrecken bei Projektion in die Bildebene, von einer Pixelkarte ausgeschlossen, die auf die Anwesenheit von Pflastermarkierungen hin analysiert wird, was wiederum bei Fahrerassistenzsystemen von Nutzen sein kann.With reference to 4th therefore pixels with the area EXCL, bounded by the polyline C, the outer edge of the image and lines which extend from the OA through the final control points CP1, CPn of the polyline C when projected into the image plane, are excluded from a pixel map on the presence of pavement markings is analyzed, which in turn can be useful for driver assistance systems.

Man beachte, dass besonders bei Kameras mit einem großen Blickfeld die Linien, die sich von dem OA durch die Enden CP1, CPn der Polylinie C zur Außenkante des Bilds erstrecken, nicht gerade sein müssen und eine Verzerrung berücksichtigen können, die durch die Kamera 3 und/oder das Kameraprojektionsmodell verursacht wird.Note that, especially for cameras with a large field of view, the lines extending from the OA through the ends CP1, CPn of the polyline C to the outer edge of the image need not be straight and can take into account distortion caused by the camera 3rd and / or the camera projection model is caused.

Es ist ersichtlich, dass in einigen Fällen die innerhalb eines gegebenen Blickfelds detektierten Punkte P in mehr als ein eindeutiges Cluster anstatt die Spreizung von Punkten unterteilt werden können, für das Beispiel von 2 bis 4 gezeigt, als Beispiel, wobei das Fahrzeug 1 zwischen zwei separaten Reihen von geparkten Wagen auf einem Parkplatz überqueren kann. In diesem Fall können mehr als eine Polylinie C für ein beliebiges gegebenes Bild definiert sein. Dies kann zu mehreren eindeutigen Gebieten einschließlich Pixeln führen, die aus der Pixelkarte ausgeschlossen werden können, die auf die Anwesenheit von Pflastermarkierungen analysiert wird.It can be seen that in some cases the points P detected within a given field of view can be divided into more than one unique cluster instead of the spread of points, for the example of FIG 2nd to 4th shown, as an example, the vehicle 1 can cross between two separate rows of parked cars in a parking lot. In this case, more than one polyline C can be defined for any given image. This can lead to several distinct areas, including pixels, that can be excluded from the pixel map that is analyzed for the presence of patch marks.

Falls die Analyse der Punkte P anzeigt, dass mehrere Polylinien erforderlich sind, können sich alternativ andere Implementierungen diesen hinzugesellen, um immer ein einzelnes kontinuierliches Gebiet innerhalb der Pixelkarte zu erzeugen, das von der Analyse auf die Anwesenheit von Pflastermarkierungen ausgeschlossen ist. Alternatively, if the analysis of points P indicates that multiple polylines are required, other implementations may join them to always create a single continuous area within the pixel map that is excluded from analysis for the presence of patch marks.

Es versteht sich, dass zusätzlich oder als eine Alternative zu dem in WO2016/146559 (Ref: SIE0239) offenbarten Verfahren alternative Verfahren verwendet werden können, um Punkte innerhalb eines Bilds zu identifizieren, die auf der Oberfläche eines 3-dimensionalen Objekts liegen und die von der Analyse auf die Anwesenheit von Pflastermarkierungen, die in Fahrerassistenzsystemen nützlich sein können, ausgeschlossen werden können.It is understood that in addition or as an alternative to that in WO2016 / 146559 (Ref: SIE0239) disclosed methods, alternative methods can be used to identify points within an image that lie on the surface of a 3-dimensional object and that are excluded from analysis for the presence of patch marks that may be useful in driver assistance systems can be.

Außerdem offenbart WO2017/042224 (Ref: SDE1766) eine Anzahl von Verfahren zum Identifizieren von Pixeln auf einer Straßenoberfläche als von Pixeln auf den Oberflächen von 3-dimensionalen Objekten verschieden. Bei einem Beispiel können Blöcke von Pixeln innerhalb eines Bilds, dessen Intensität unter einen vorbestimmten Schwellwert fällt, bezüglich ihrer Helligkeit untersucht werden. Dann können jene Bildblöcke mit Hilfe eines entsprechenden Histogramms, die mit der Straße assoziiert sind, erkannt werden. Zum Bestimmen der Pflasteroberfläche können die individuellen Bildblöcke, die beispielsweise in mehreren Spalten und mehreren Linien angeordnet sind, untersucht werden. Dabei können die individuellen Spalten von unten nach oben mit Hilfe eines entsprechenden Histogramms untersucht werden. Dabei kann beispielsweise geprüft werden, ob eine vorbestimmte Anzahl an zusammenhängenden Bildblöcken, beispielsweise drei zusammenhängende Bildblöcke, vorliegt. In diesem Fall kann die Pflasteroberfläche dann bestimmt werden. Dabei kann auch vorgesehen sein, das die Mitte von dem mindestens einen der Bildblöcke, die mit der Pflasteroberfläche assoziiert sind, in der Reihe bestimmt wird. Dieser Punkt kann dann als eine Grenze der Pflasteroberfläche innerhalb eines Bilds angesehen werden.Also revealed WO2017 / 042224 (Ref: SDE1766) a number of methods for identifying pixels on a street surface as different from pixels on the surfaces of 3-dimensional objects. In one example, blocks of pixels within an image whose intensity falls below a predetermined threshold can be examined for their brightness. Then those image blocks that are associated with the road can be recognized with the aid of a corresponding histogram. To determine the pavement surface, the individual image blocks, which are arranged, for example, in several columns and several lines, can be examined. The individual columns can be examined from bottom to top using a corresponding histogram. It can be checked, for example, whether there is a predetermined number of contiguous image blocks, for example three contiguous image blocks. In this case the pavement surface can then be determined. It can also be provided that the center of the at least one of the image blocks associated with the plaster surface in the series is determined. This point can then be viewed as a boundary of the patch surface within an image.

Eine derartige Technik könnte anzeigen, dass eine Grenze entsprechend dem in 2 und 4 dargestellten Gitter G Pixel enthält, die sich auf der Pflasteroberfläche befinden, so dass Pixel außerhalb dieser Grenze von einer Analyse auf die Anwesenheit von Pflastermarkierungen ausgeschlossen werden.Such a technique could indicate that a limit corresponding to that in 2nd and 4th shown grid G contains pixels that are located on the pavement surface, so that pixels outside this limit are excluded from an analysis for the presence of pavement markings.

Sowie Oberflächen von 3-dimensionalen Objekten innerhalb des Blickfelds der Kamera 3 versteht sich, dass andere Gebiete eines beliebigen, durch die Kamera 3 erfassten Bilds ebenfalls aus der Analyse auf die Anwesenheit von Pflastermarkierungen ausgeschlossen werden können. Beispielsweise kann, wie in 2 und 4 gezeigt, ein beliebiges Gebiet, von dem bekannt ist, dass es von der hinteren Oberfläche 5 des Fahrzeugs 1 ist, das in dem erfassten Bild erscheint, immer von einer Analyse auf die Anwesenheit von Pflastermarkierungen ausgeschlossen werden.As well as surfaces of 3-dimensional objects within the field of view of the camera 3rd understand that other areas of any, through the camera 3rd captured image can also be excluded from the analysis for the presence of plaster marks. For example, as in 2nd and 4th shown any area known to be from the rear surface 5 of the vehicle 1 that appears in the captured image must always be excluded from an analysis for the presence of plaster markings.

Wie in WO2017/042224 (Ref: SDE1766) erwähnt, können verschiedene Techniken mit den oben referenzierten und beschriebenen verschmolzen werden, um eine letzte Grenze für eine Pixelkarte innerhalb eines Bilds zu definieren, das nur jene Pixel auf einer Pflasteroberfläche enthält, die auf die Anwesenheit von Pflastermarkierungen analysiert werden müssen.As in WO2017 / 042224 (Ref: SDE1766), various techniques can be merged with those referenced and described above to define a final boundary for a pixel map within an image that contains only those pixels on a patch surface that need to be analyzed for the presence of patch marks .

Wenngleich die oben beschriebenen Ausführungsformen bezüglich des Erfassens von mehreren Bildern von einer gegebenen Kamera beschrieben worden sind, möglicherweise zusammengesetzten Bildern, wenn sich ein Fahrzeug an verschiedenen Orten und/oder Orientierungen befindet, um 3-dimensionale Objekte innerhalb einer Szene zu identifizieren und um die Oberflächen von solchen Objekten aus einer Analyse auf die Anwesenheit von Pflastermarkierungen auszuschließen, versteht sich, dass bei Varianten von solchen Ausführungsformen mehrere Bilder im Wesentlichen gleichzeitig von mehreren Kameras oder einem Kameraarray mit bekannten Projektionsmodellen erfasst werden können, die nahe nebeneinander in einer bekannten räumlichen und Ausrichtungsbeziehung platziert sind, um mehrere Bilder mit eindeutigen Blickfeldern der Umgebung des Fahrzeugs bereitzustellen, für das eine Tiefenkarte dann für mindestens einige Pixel innerhalb jener Bilder generiert werden können, um die Oberflächen von 3-dimensionalen Objekten innerhalb einer Szene zu identifizieren.Although the above-described embodiments have been described in terms of capturing multiple images from a given camera, composite images may exist when a vehicle is in different locations and / or orientations to identify 3-dimensional objects within a scene and around the surfaces To exclude from such objects from an analysis for the presence of plaster markings, it goes without saying that, in variants of such embodiments, several images can be captured essentially simultaneously by several cameras or a camera array with known projection models, which are placed close to one another in a known spatial and alignment relationship are to provide several images with clear fields of view of the surroundings of the vehicle, for which a depth map can then be generated for at least a few pixels within those images, around the surfaces of 3-dimensional Identify objects within a scene.

In jedem Fall kann, nachdem die Pixel innerhalb einer Szene, die potentiell Pflastermarkierungen enthalten könnten, identifiziert sind, eine beliebige geeignete Technik wie etwa jene oben referenzierte verwendet werden, um solche Pflastermarkierungen innerhalb eines gegebenen Bilds zu identifizieren.In any event, after the pixels within a scene that could potentially contain patch marks are identified, any suitable technique, such as that referenced above, can be used to identify such patch marks within a given image.

Wenngleich eine beliebige derartige Technik als normal angewendet werden kann, um Pflastermarkierungen zu identifizieren, versteht sich, dass, weil mit mehr Vertrauen angenommen werden kann, dass die Pixel, die analysiert werden, nicht zu der Oberfläche eines 3-dimensionalen Objekts gehören, das von einer derartigen Technik angewendete Abstimmen tatsächlich gelockert werden kann, um potentiell Pflastermarkierungen aufzugreifen, die möglicherweise nicht so klar definiert sind, wie dies für eine Technik erforderlich wäre, die diese Annahme nicht machen könnte. Als solches kann das vorliegende Verfahren für größere Nützlichkeit bei dem Betrieb von Fahrassistenzsystemen sorgen.While any such technique can be used as normal to identify patch marks, it is understood that because it can be assumed with more confidence that the pixels being analyzed do not belong to the surface of a 3-dimensional object that is from such tuning technique can actually be relaxed to pick up potentially patch marks that may not be as clearly defined as would be required for a technique that could not make this assumption. As such, the present method can provide greater utility in the operation of driver assistance systems.

In jedem Fall, unter der Annahme, dass eine etwaige, innerhalb eines erfassten Bilds identifizierte Markierung auf der Pflasteroberfläche liegt, d.h. eine bekannte z-Koordinate besitzt, ist ersichtlich, wie die Bildkoordinaten für eine etwaige identifizierte Pflastermarkierung von der Bildebene in das Weltkoordinatensystem transformiert werden können - das Inverse der Transformation der Polylinie C von dem Weltkoordinatensystem in die Bildebene.In any case, assuming that any marking identified within a captured image is on the plaster surface, i.e. has a known z coordinate, it can be seen how the image coordinates for any identified plaster marking can be transformed from the image plane into the world coordinate system - the inverse of the transformation of the polyline C from the world coordinate system into the image plane.

Mit solchen, in dem gleichen Weltkoordinatensystem wie das Fahrzeug 1 definierten Markierungen ist nun ersichtlich, wie diese durch ein beliebiges Fahrerassistenzsystem verwendet werden können, um die Kontrolle des Fahrzeugs 1 zu unterstützen.With those in the same world coordinate system as the vehicle 1 defined markings can now be seen how these can be used by any driver assistance system to control the vehicle 1 to support.

Man beachte, dass Ausführungsformen der vorliegenden Erfindung nicht auf das Verwenden von Informationen von einem gegebenen Bild zum Bestimmen des Orts von Pflastermarkierungen innerhalb einer Umgebung eines Fahrzeugs beschränkt sein müssen. Insbesondere in dem Fall, wo sich ein Fahrzeug relativ langsam innerhalb einer Umgebung bewegt, können Weltraumkoordinaten für eine in einem Bild detektierte Pflastermarkierung den Abschnitt eines Weltkoordinatenraums überlappen, der in einem nachfolgenden Bild der Umgebung 6 erfasst wird. Somit kann die Detektion einer Pflastermarkierung innerhalb mehreren einer Sequenz von Bildern zu einem Vertrauensgrad für die Pflastermarkierung beitragen, was dann durch ein Fahrerassistenzsystem verwendet werden kann, um zu berücksichtigen, ob die Pflastermarkierung als gültig oder nicht behandelt werden sollte. So könnte beispielsweise unter Verwendung dieser Technik ein Bild eines blinkenden Lichts oder einer Reflexion auf einem Pflaster aus einer Berücksichtigung durch ein Fahrerassistenzsystem herausgefiltert werden.Note that embodiments of the present invention need not be limited to using information from a given image to determine the location of pavement marks within an environment of a vehicle. In particular, in the case where a vehicle moves relatively slowly within an environment, space coordinates for a plaster marking detected in an image can overlap the section of a world coordinate space that is in a subsequent image of the environment 6 is recorded. Thus, the detection of a patch marking within several of a sequence of images can contribute to a degree of confidence in the patch marking, which can then be used by a driver assistance system to consider whether the patch marking should be treated as valid or not. For example, using this technique, an image of a blinking light or a reflection on a pavement could be filtered out from consideration by a driver assistance system.

Bei anderen Ausführungsformen kann die Kenntnis der wahrscheinlichen Geometrie eines Stellplatzes/-raums verwendet werden, um zu bestimmen, welche Pflastermarkierungen den Umriss eines Stellplatzes/- raums umfassen könnten und welche nicht, so dass jene, die keine gültigen Pflastermarkierungen umfassen, davon ausgeschlossen werden können, an ein Fahrerassistenzsystem geliefert zu werden. So könnten beispielsweise nur gerade Pflastermarkierungen, die parallel oder orthogonal zu anderen Pflastermarkierungen auf der horizontalen Ebene verlaufen, nach einer derartigen Filterung beibehalten werden. In other embodiments, knowledge of the likely geometry of a parking space / space can be used to determine which pavement markings might and may not include the outline of a parking space / space, so that those that do not include valid pavement markings can be excluded to be delivered to a driver assistance system. For example, only straight plaster markings that run parallel or orthogonal to other plaster markings on the horizontal plane could be retained after such filtering.

Somit erfasst zusammenfassend unter Bezugnahme auf 5 bei Ausführungsformen der vorliegenden Erfindung eine Evaluierungseinheit 4 mindestens zwei Bilder von im Wesentlichen der gleichen Umgebung von einer oder mehreren Kameras 3, Schritt 50. Mit den Bildern identifiziert die Evaluierungseinheit mindestens einen Punkt auf einer Oberfläche eines 3-dimensionalen Objekts innerhalb des Blickfelds der einen oder mehreren Kameras, Schritt 52. Die Evaluierungseinheit 4 schließt Pixel innerhalb eines Bilds hinter der Oberfläche des 3-dimensionalen Objekts von der Analyse auf die Anwesenheit von Pflastermarkierungen aus, Schritt 54. Die übrigen Pixel können weiter gefiltert werden, um eine letzte Pixelkarte herzustellen, die auf die Anwesenheit von Pflastermarkierungen analysiert werden soll, Schritt 57. Mindestens ein Abschnitt der letzten Pixelkarte wird dann analysiert, um Pflastermarkierungen zu identifizieren, Schritt 56, und diese können wiederum gefiltert werden, Schritt 59, bevor die letzte Menge von für ein gegebenes Bild der Umgebung identifizierten Pflastermarkierungen dann für ein beliebiges Fahrerassistenzsystem verwendet werden kann, um die Kontrolle des Fahrzeugs 1 zu unterstützen.Thus, summarized with reference to FIG 5 in embodiments of the present invention, an evaluation unit 4th at least two images of substantially the same environment from one or more cameras 3rd , Step 50 . The evaluation unit uses the images to identify at least one point on a surface of a 3-dimensional object within the field of view of the one or more cameras, step 52 . The evaluation unit 4th excludes pixels within an image behind the surface of the 3-dimensional object from the analysis for the presence of patch marks, step 54 . The remaining pixels can be further filtered to produce a final pixel map to be analyzed for the presence of patch marks, step 57 . At least a portion of the last pixel map is then analyzed to identify patch marks, step 56 , and these in turn can be filtered, step 59 Before the last set of patch marks identified for a given image of the environment can then be used for any driver assistance system to control the vehicle 1 to support.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 2008136673 A [0005]US 2008136673 A [0005]
  • KR 2008/0024776 A [0006]KR 2008/0024776 A [0006]
  • US 2013265429 A [0007]US 2013265429 A [0007]
  • US 2014112542 A [0008]US 2014112542 A [0008]
  • US 2016307052 A [0009]US 2016307052 A [0009]
  • US 2017096167 A [0010]US 2017096167 A [0010]
  • DE 102018113559 [0011]DE 102018113559 [0011]
  • WO 2016/146559 [0027, 0040]WO 2016/146559 [0027, 0040]
  • WO 2017/042224 [0041, 0044]WO 2017/042224 [0041, 0044]

Claims (13)

Verfahren zum Erkennen einer Pflastermarkierung in einem Bild einer Umgebung eines Fahrzeugs (1), umfassend: Erfassen (50) von mindestens zwei Bildern von im Wesentlichen der gleichen Umgebung von einer oder mehreren Kameras (3), wobei die Bilder von mindestens einer von: einer eindeutigen Kameraposition oder -orientierung erfasst worden sind; Identifizieren (52) innerhalb jedes Bilds mindestens einen Punkt auf einer Oberfläche eines 3-dimensionalen Objekts innerhalb des Blickfelds der einen oder mehreren Kameras; Ausschließen (54) von Pixeln innerhalb eines Bilds der mindestens zwei Bilder, hinter der Oberfläche des 3-dimensionalen Objekts relativ zu der Kameraposition angeordnet, für das Bild aus der Analyse auf die Anwesenheit von Pflastermarkierungen; Analysieren (56) mindestens eines Abschnitts von nicht ausgeschlossenen Pixeln von dem Bild zum Identifizieren von Pflastermarkierungen; und Liefern von Details für mindestens einige der identifizierten Pflastermarkierungen an ein Fahrerassistenzsystem, um die Kontrolle des Fahrzeugs (1) zu unterstützen.A method for recognizing a plaster marking in an image of an environment of a vehicle (1), comprising: Capturing (50) at least two images of substantially the same surroundings from one or more cameras (3), the images being captured from at least one of: a unique camera position or orientation; Identifying (52) within each image at least one point on a surface of a 3-dimensional object within the field of view of the one or more cameras; Excluding (54) pixels within an image of the at least two images, located behind the surface of the 3-dimensional object relative to the camera position, for the image from analysis for the presence of patch marks; Analyzing (56) at least a portion of non-excluded pixels from the image to identify patch marks; and Providing details for at least some of the identified patch markings to a driver assistance system to support the control of the vehicle (1). Verfahren nach Anspruch 1, weiterhin umfassend: Filtern (57) der nicht ausgeschlossenen Pixel zum Ausschließen weiterer Pixel aus dem Bild von dem Analysieren auf die Anwesenheit von Pflastermarkierungen.Procedure according to Claim 1 , further comprising: filtering (57) the non-excluded pixels to exclude further pixels from the image from analyzing for the presence of patch marks. Verfahren nach Anspruch 2, wobei das Filtern das Ausschließen von Pixeln innerhalb des Bilds umfasst, von denen bekannt ist, dass sie einer Oberfläche des Fahrzeugs entsprechen.Procedure according to Claim 2 wherein the filtering includes excluding pixels within the image that are known to correspond to a surface of the vehicle. Verfahren nach Anspruch 2, wobei das Filtern das Identifizieren einer Grenze innerhalb des Bilds umfasst, das Pixel enthält, deren Aussehen anzeigt, dass sie einer Pflasteroberfläche entsprechen, und weiteres Ausschließen von Pixeln innerhalb des Bilds außerhalb der Grenze von dem Analysieren auf die Anwesenheit von Pflastermarkierungen.Procedure according to Claim 2 wherein the filtering includes identifying a boundary within the image that contains pixels whose appearance indicates that they correspond to a plaster surface, and further excluding pixels within the image outside the boundary from analyzing for the presence of plaster marks. Verfahren nach Anspruch 1, weiterhin umfassend: Filtern (59) der identifizierten Pflastermarkierungen zum Ausschließen von einer oder mehreren identifizierten Pflastermarkierungen von dem Liefern an das Fahrerassistenzsystem.Procedure according to Claim 1 , further comprising: filtering (59) the identified patch marks to exclude one or more identified patch marks from being delivered to the driver assistance system. Verfahren nach Anspruch 5, wobei das Filtern das Anwenden von geometrischen Regeln zum Ausschließen der einen oder mehreren identifizierten Pflastermarkierungen umfasst.Procedure according to Claim 5 wherein the filtering includes applying geometric rules to exclude the one or more identified patch marks. Verfahren nach Anspruch 5, wobei das Filtern das Verfolgen einer Historie einer identifizierten Pflastermarkierung in einer Sequenz von Bildern umfasst, erfasst vor dem Bild, um einen Vertrauensgrad für jede identifizierte Pflastermarkierung zu bestimmen und eine beliebige identifizierte Pflastermarkierung mit einem Vertrauensgrad unter einem Schwellwert auszuschließen.Procedure according to Claim 5 , wherein the filtering includes tracking a history of an identified patch mark in a sequence of images captured in front of the image to determine a level of confidence for each identified patch mark and to exclude any identified patch mark with a confidence level below a threshold. Verfahren nach Anspruch 1, wobei das Identifizieren (52) innerhalb jedes Bilds mindestens eines Punkts auf einer Oberfläche eines 3-dimensionalen Objekts umfasst: Lokalisieren einer Menge von einem oder mehreren charakteristischen Pixeln in jedem der mindestens zwei Bilder; Bestimmen einer Koordinate in einem 3-dimensionalen Raum für entsprechende charakteristische Pixel aus den mindestens zwei Bildern; und Wählen von Pixeln mit einer Höhencharakteristik über einem Schwellwertausmaß als Punkten auf einer Oberfläche eines 3-dimensionalen Objekts entsprechend.Procedure according to Claim 1 wherein identifying (52) within each image of at least one point on a surface of a 3-dimensional object comprises: locating a set of one or more characteristic pixels in each of the at least two images; Determining a coordinate in a 3-dimensional space for corresponding characteristic pixels from the at least two images; and selecting pixels with a height characteristic over a threshold value as points on a surface of a 3-dimensional object accordingly. Verfahren nach Anspruch 8, weiterhin umfassend: Bestimmen mindestens einer Grenze auf einer zweidimensionalen Ebene, die die Punkte auf einer Oberfläche eines 3-dimensionalen Objekts von dem Kameraort trennt; und Abbilden der Grenze in die Bildebene zum Ausbilden mindestens eines Abschnitts einer Grenze für die ausgeschlossenen Pixel.Procedure according to Claim 8 , further comprising: determining at least one boundary on a two-dimensional plane that separates the points on a surface of a 3-dimensional object from the camera location; and mapping the boundary into the image plane to form at least a portion of a boundary for the excluded pixels. Computerprogrammprodukt zum Ausführen eines Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Computerprogrammprodukt auf einer programmierbaren Computereinrichtung ausgeführt wird.Computer program product for executing a method according to one of the preceding claims, if the computer program product is executed on a programmable computer device. Kamerasystem (2) mit mindestens einer Kamera (3) und einer Evaluierungseinheit (4), die ausgebildet ist zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 9.Camera system (2) with at least one camera (3) and an evaluation unit (4), which is designed to carry out a method according to one of the Claims 1 to 9 . Fahrzeugkontrolleinrichtung, umfassend das Kamerasystem nach Anspruch 11 und ein Fahrerassistenzsystem reagierend auf das Erhalten der identifizierten Pflastermarkierungen, um die Kontrolle des Fahrzeugs zu unterstützen.Vehicle control device, comprising the camera system according to Claim 11 and a driver assistance system responsive to receiving the identified patch marks to aid in the control of the vehicle. Kraftfahrzeug (1) mit einem Kamerasystem (2) nach Anspruch 11.Motor vehicle (1) with a camera system (2) Claim 11 .
DE102019102561.3A 2019-02-01 2019-02-01 Process for recognizing a plaster marking Pending DE102019102561A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019102561.3A DE102019102561A1 (en) 2019-02-01 2019-02-01 Process for recognizing a plaster marking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019102561.3A DE102019102561A1 (en) 2019-02-01 2019-02-01 Process for recognizing a plaster marking

Publications (1)

Publication Number Publication Date
DE102019102561A1 true DE102019102561A1 (en) 2020-08-06

Family

ID=71615383

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019102561.3A Pending DE102019102561A1 (en) 2019-02-01 2019-02-01 Process for recognizing a plaster marking

Country Status (1)

Country Link
DE (1) DE102019102561A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022002620A1 (en) 2022-07-18 2023-10-19 Mercedes-Benz Group AG Method for fusing sensor data and vehicle

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080024776A (en) 2006-09-14 2008-03-19 주식회사 만도 Method and apparatus for recognizing parking slot marking by using hough transformation and parking assist system using same
US20080136673A1 (en) 2006-09-14 2008-06-12 Mando Corporation Method and apparatus for recognizing parking slot by using bird's eye view and parking assist system using the same
US20130265429A1 (en) 2012-04-10 2013-10-10 Hyundai Motor Company System and method for recognizing parking space line markings for vehicle
US20140112542A1 (en) 2012-10-24 2014-04-24 Hyundai Motor Company System and method for recognizing parking space line markings for vehicle
WO2016146559A1 (en) 2015-03-18 2016-09-22 Connaught Electronics Ltd. Method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle
US20160307052A1 (en) 2015-04-16 2016-10-20 Electronics And Telecommunications Research Institute Device and method for recognizing obstacle and parking slot to support unmanned autonomous parking function
WO2017042224A1 (en) 2015-09-08 2017-03-16 Connaught Electronics Ltd. Method for generating an environmental map of an environment of a motor vehicle based on an image of a camera, driver assistance system as well as motor vehicle
US20170096167A1 (en) 2015-10-05 2017-04-06 Hyundai Motor Company Parking guidance apparatus and method for vehicle
DE102018113559A1 (en) 2018-06-07 2019-12-12 Connaught Electronics Ltd. A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080024776A (en) 2006-09-14 2008-03-19 주식회사 만도 Method and apparatus for recognizing parking slot marking by using hough transformation and parking assist system using same
US20080136673A1 (en) 2006-09-14 2008-06-12 Mando Corporation Method and apparatus for recognizing parking slot by using bird's eye view and parking assist system using the same
US20130265429A1 (en) 2012-04-10 2013-10-10 Hyundai Motor Company System and method for recognizing parking space line markings for vehicle
US20140112542A1 (en) 2012-10-24 2014-04-24 Hyundai Motor Company System and method for recognizing parking space line markings for vehicle
WO2016146559A1 (en) 2015-03-18 2016-09-22 Connaught Electronics Ltd. Method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle
US20160307052A1 (en) 2015-04-16 2016-10-20 Electronics And Telecommunications Research Institute Device and method for recognizing obstacle and parking slot to support unmanned autonomous parking function
WO2017042224A1 (en) 2015-09-08 2017-03-16 Connaught Electronics Ltd. Method for generating an environmental map of an environment of a motor vehicle based on an image of a camera, driver assistance system as well as motor vehicle
US20170096167A1 (en) 2015-10-05 2017-04-06 Hyundai Motor Company Parking guidance apparatus and method for vehicle
DE102018113559A1 (en) 2018-06-07 2019-12-12 Connaught Electronics Ltd. A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022002620A1 (en) 2022-07-18 2023-10-19 Mercedes-Benz Group AG Method for fusing sensor data and vehicle

Similar Documents

Publication Publication Date Title
DE102014116140B4 (en) Parking assist device and parking assistance method for a vehicle
DE102011106050B4 (en) Shadow removal in an image captured by a vehicle-based camera for detection of a clear path
DE102009012435B4 (en) Apparatus and method for monocular motion stereo-based detection of free parking spaces
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102015105248A1 (en) CREATING A PICTURE FROM THE ENVIRONMENT OF A TURNING VEHICLE
DE102012222497A1 (en) System and method for detecting parking space markings for vehicles
EP2396746A2 (en) Method for detecting objects
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE112016001150T5 (en) ESTIMATION OF EXTRINSIC CAMERA PARAMETERS ON THE BASIS OF IMAGES
DE102015115012A1 (en) Method for generating an environment map of an environment of a motor vehicle based on an image of a camera, driver assistance system and motor vehicle
DE102015206546A1 (en) Road marking recognition device
DE112015006662T5 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND DISPLAY CONTROL PROGRAM
DE102018123393A1 (en) Detection of parking areas
DE102016124747A1 (en) Recognition of a raised object based on perspective images
EP2579228A1 (en) Method and system for digital imaging of the vicinity of a vehicle
DE102006044615A1 (en) Image capturing device calibrating method for vehicle, involves locating objects in vehicle surrounding based on image information detected by image capturing device, and evaluating geometrical relations of objects
DE102019112279A1 (en) METHOD AND DEVICE FOR DIAGONAL TRACK DETECTION
DE102019102561A1 (en) Process for recognizing a plaster marking
DE102006007550A1 (en) Roadway markings detecting method for motor vehicle, involves analyzing pixels in such a manner that roadway markings for vehicle are detected, and using ridge-operator as image recognition operator during analysis of pixels
DE102016212774A1 (en) Method and device for generating an environment map and for locating a vehicle
WO2019162327A2 (en) Method for determining a distance between a motor vehicle and an object
DE102020134119B3 (en) Method for localizing a motor vehicle in an assistance card, motor vehicle, computer program and electronically readable data carrier
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102021107904A1 (en) Method and system for determining ground level with an artificial neural network
DE102011111856B4 (en) Method and device for detecting at least one lane in a vehicle environment

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R163 Identified publications notified