WO2019057252A1 - Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug - Google Patents

Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug Download PDF

Info

Publication number
WO2019057252A1
WO2019057252A1 PCT/DE2018/200078 DE2018200078W WO2019057252A1 WO 2019057252 A1 WO2019057252 A1 WO 2019057252A1 DE 2018200078 W DE2018200078 W DE 2018200078W WO 2019057252 A1 WO2019057252 A1 WO 2019057252A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
feature points
lanes
lane
image
Prior art date
Application number
PCT/DE2018/200078
Other languages
English (en)
French (fr)
Inventor
Christopher Bayer
Claudio Heller
Claudia Loy
Alexey ABRAMOV
Original Assignee
Continental Teves Ag & Co. Ohg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves Ag & Co. Ohg filed Critical Continental Teves Ag & Co. Ohg
Priority to DE112018003499.2T priority Critical patent/DE112018003499A5/de
Priority to CN201880054786.1A priority patent/CN111066024A/zh
Priority to US16/643,973 priority patent/US11417117B2/en
Priority to JP2020514970A priority patent/JP2020534600A/ja
Publication of WO2019057252A1 publication Critical patent/WO2019057252A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the invention relates to a method for recognizing lanes, a device for recognizing lanes, a driver assistance system and a vehicle.
  • Driver assistance systems generate a model of the environment of the vehicle on the basis of a large number of sensor data. In addition to the detection of obstacles and other road users, the recognition of lanes is of particular relevance. By determining the movement of the vehicle in the lanes, the driver can be warned early in the accidental leaving a lane. Further, driver assistance systems can assist the driver in keeping the lane or autonomously control the vehicle along the lane.
  • the detection of the lanes is usually carried out by the determination of lane boundaries, which are to be understood in particular lane markings and curbs.
  • Document DE 10 2015 209467 A1 discloses a method for estimating lanes using feature vectors which are independently determined on the basis of different sensors.
  • edge detection techniques can be used to determine the lane markers, which detect the transition between the lighter and darker regions.
  • Sobel filters is widespread, essentially calculating a difference in the brightness values of two adjacent areas. At a constant brightness, this difference averages to zero, while at edges of zero, different values result.
  • This object is achieved by a method for recognizing
  • Lanes with the features of claim 1 solved by a device for recognizing lanes with the features of claim 10, by a driver assistance system having the features of claim 14 and a vehicle having the features of claim 15.
  • the present invention accordingly provides a method for recognizing lanes, wherein a camera image of a vehicle surroundings of a vehicle is detected by means of a camera device of the vehicle. Feature points that correspond to areas of possible lane boundaries are determined. Image sections of the captured camera image are generated around a respective feature point.
  • Image detail is analyzed using a neural network to classify the feature points. Finally, lanes in the vehicle environment are recognized taking into account the classified feature points.
  • the present invention accordingly provides an apparatus for recognizing traffic lanes, which has an interface for receiving a signal by means of a camera front.
  • the device further comprises a computing device which determines feature points in the camera image received by means of the interface which correspond to areas of possible roadway boundaries.
  • the computing device generates image sections of the captured camera image around a feature point, analyzes the image sections using a neural network for the classification of the feature points and determines lanes in the vehicle environment taking into account the classified feature points.
  • the invention relates to a driver assistance system for a vehicle, with a camera device which displays a camera image of a vehicle environment of the vehicle
  • the invention relates to a vehicle with a driver assistance system.
  • the invention provides a two-level detection of lanes.
  • a first step the camera image is analyzed by means of preferably classical methods for feature recognition, and feature points are determined which areas correspond to possible roadway boundaries.
  • this first step in a rough evaluation already less relevant areas are eliminated, ie. H. those areas in which there are likely to be no lane boundaries. This reduces the computational effort in the further processing of the data.
  • a more detailed analysis of the found feature points is performed.
  • image sections around the feature points are evaluated by means of a neural network.
  • a classification of the feature points can be carried out, ie a classification, whether the feature point corresponds to a lane boundary or not.
  • the lanes are determined on the basis of those feature points which have been classified as lane boundary corresponding feature points.
  • a Sobel filter generally has a detection range of approximately 3x3 pixels, while the image detail for the neural network may have a detection range of 128x128 pixels, for example.
  • These larger frames allow the neural network to capture the context of the environment to classify the feature point. For example, shrubs within the image section may indicate a guard rail and thus a misidentification or an outlier.
  • a surrounding area of the image section is thus evaluated.
  • the invention thus preferably combines classical methods with the use of neural networks. Due to the pre-filtering but only certain areas of the camera image must be analyzed by the neural network and a Ge ⁇ felausêt all the pixels can be omitted. The lane detection is thus quickly and efficiently feasible. At the same time, the high recognition accuracy of the neural networks is fully exploited.
  • the threshold values which must be exceeded in order to detect a pixel as a feature point, are preferably set relatively low.
  • the resulting false identifications are then filtered out again by means of the neural network.
  • the threshold values are typically instance, selected such that as few Albertidenti ⁇ fications arise. As a result, low-contrast roadway limitations can not be detected. Due to the two-stage process according to the invention, no such grain promiss are received and the recognition accuracy is higher.
  • the feature points are determined using algorithms for edge detection.
  • the edge detection thus takes place by means of classical methods and preferably by using Sobel filters.
  • the possible lane boundaries include lane markings.
  • lane markings can be recognized as possible lane boundaries.
  • Under lane markings or lane markings are to be understood color identifications on the surface of the lanes, which subdivide or demarcate the individual lanes.
  • the lane boundaries may also include curbs, crash barriers or vegetation, especially if lane markings are missing.
  • the neural network is a convolutional neural network.
  • the neural network is taught by means of predetermined training data from a database.
  • the training data include images of lane boundaries.
  • the training data may further include mappings of structures that are not lane markers. These images are preferably selected such that they represent structures and objects which can be falsely identified as pavement markings by means of conventional edge detection ⁇ typically. Examples may be images of vehicles or crash barriers that do not constitute a roadway boundary.
  • the neural network is thereby taught in such a way that Figures of lane boundaries are distinguished from figures which show no lane boundaries.
  • the image cut-outs used for the analysis by means of the neural network preferably have a predetermined pixel number or ⁇ a predetermined size.
  • the images selected as training data preferably correspond to typical images of images of the vehicle surroundings captured by a camera device of a vehicle of this given pixel number or size.
  • the images are generated at least partially at different brightnesses.
  • the images can be generated at different times of the day.
  • the images can also be produced under different lighting conditions, for example on poorly lit or well-lit streets.
  • the images can be captured under various weather conditions, such as sunshine, fog, rain or snow.
  • the courses of lane boundaries are determined by interpolating adjacent feature points which are considered to be one
  • the vehicle lanes are determined for the vehicle.
  • the computing device determines the feature points using edge-detection algorithms.
  • the computing device for edge detection uses Sobel filters.
  • the computing device of the device is designed, by interpolation of adjacent feature points, which have been classified accordingly as a lane boundary, to make progressions of roadway traffic. to determine limitations.
  • the computing device determines on the basis of the progressions of the roadway boundaries the traffic lanes accessible to the vehicle.
  • FIG. 1 is a schematic block diagram of a lane recognition device according to an embodiment of the invention.
  • FIG. 1 shows a schematic block diagram of a device 1 for recognizing lanes.
  • the device 1 comprises an interface 11, which is designed to receive and transmit data wirelessly or via a wired connection.
  • the interface 11 receives particular camera data and transmits it to a rake ⁇ means 12 of the device 1.
  • the camera data comprise at least one camera image, which was generated by a camera apparatus 2 of a vehicle.
  • the camera image may also consist of a plurality of individual images of a vehicle camera of the camera device 2 or of a plurality of images of a plurality of
  • Vehicle cameras of the camera device 2 are combined.
  • the computing device 12 analyzes the camera image by means of image recognition methods in order to extract feature points which correspond to areas with lane boundaries in the vehicle environment.
  • the computing device 12 includes at least one microprocessor for performing the calculation steps.
  • the computing device 12 generates a respective image detail around each of the feature points.
  • This image section serves as input for a neural network which evaluates the image section.
  • the neural network is preferably a convolutional neural network. By means of the neural network, a probability is calculated with which the image section depicts a road boundary.
  • the computing device 12 recognizes that the feature point of the image section corresponds to a road boundary.
  • the feature points classified in this way are further evaluated by the computing device 12 in order to detect lanes in the vehicle
  • the re- chen worn 12 by interpolation of adjacent feature points, which correspond to lane boundaries, determine the course of the lane boundaries in the camera image.
  • the areas running between roadway boundaries can be identified as carriageways, and the computing device 12 can generate an environmental model.
  • FIG. 2 shows a camera image K detected by a camera device 2.
  • the depicted objects comprise a right-hand lane marking 51, a middle lane marking 52, a guardrail 53 located on the right-hand lane edge, and a vehicle 54 traveling on a parallel lane.
  • the computing device 12 analyzes the pixels of the camera image K by means of classical methods for detecting edges.
  • the computing device 12 may apply to each pixel a Sobel filter to detect an edge at or in the vicinity of the pixel.
  • the Sobel filter can take into account 3x3 pixels in the vicinity of the pixel to be examined, but can also calculate a larger surrounding area of the pixel.
  • the computing device 12 may determine for each pixel whether the pixel is at or near an edge. In particular, the computing device 12 can compare the value calculated by means of the Sobel filter with a predetermined threshold value. If the threshold is exceeded, determines the computing device 12, that it is in the pixels around a feature point corresponding to a possible Fahrbahnbe ⁇ limitation. In the example shown in Figure 2, the camera image K Re ⁇ chen Rhein 12 determines a set of 15 feature points PI to P15. This is only an example. In general, a larger number of feature points will be generated. 1
  • the computing device 12 For each feature point PI to P15, the computing device 12 generates an image section Bl to B3 which are located in Figure 2 of at ⁇ schauzier sake only for the first three feature points PI to P3.
  • the image sections Bl to B3 may have a predetermined size, for example 128x128 pixels.
  • the feature point PI to P15 is preferably arranged in each case in the center of the respective image section Bl to B3.
  • FIG. 3 explains in more detail the generation of the neural network used for further analyzing the image sections B1 to B3.
  • a database DB is generated with Trai ⁇ beginnings data first.
  • the training data include images captured by a vehicle camera. These are preferably classified manually into two groups.
  • a first group valley to Ta4 includes diagrams showing Fahrbahnbe ⁇ demarcations.
  • the illustrations may only include pictures of lane markings. However, according to further embodiments, the illustrations can also depict curb edges or further roadway boundaries.
  • the images can be generated at different brightness or weather conditions.
  • the second group includes mappings Tbl to Tb4, which show objects with edges, but which are not lane boundaries. These may be images of vehicles Tbl, Tb3, crash barriers Tb2 or bridges Tb4.
  • the computing device 12 can classify any image sections B1 to B3 by means of the neural network. For this, a probability can be output first by means of the neural network that it is a picture of a Fahrbahnbe ⁇ limitation in the image section Bl to B3. If the calculated probability is a predetermined threshold value, for example, exceeds 0.5, classified the computing device 12 the image section Bl to B3 as corresponding to a roadway boundary.
  • the computing device 12 recognizes, for example, that the feature points P2, P5 to P8 of the middle road mark 52 and the feature points PI, P9 to P13 of the right road mark 51 are feature points which
  • the computing device 12 preferably only incorporates those feature points PI to P15 which have been recognized as corresponding to roadway boundaries. The computing device 12 can now determine the corresponding roadway boundaries by interpolation of adjacent remaining feature points PI to P15 or pixels.
  • the computing device 12 for the camera image K depicted in FIG. 2 recognizes, for example, a first road boundary M1 and a second road boundary M2. Accordingly, the computing device 12 determines that a roadway F runs between the roadway boundaries M1, M2. Preferably, the described detection of the lanes is carried out iteratively, wherein the already recognized lane ⁇ limits and lanes are updated.
  • FIG. 5 illustrates a block diagram of a driver assistance system 4 for a vehicle according to an embodiment of the invention.
  • the driver assistance system 4 comprises a Kame ⁇ ravorcardi 2, which one or a plurality of vehicles has imaging cameras, which are arranged or can be arranged on the vehicle.
  • the driver assistance system 4 further comprises an above-described lane recognition device 1.
  • Device comprises an interface 12 described above, which receives the camera images captured by the camera device 2, as well as a computing device 12, which determines lanes F based on the camera images.
  • the driver assistance system 4 may include a control device 3, which may control certain driving functions of the vehicle.
  • the control device 3 depending on the detected lanes, the vehicle to control such that the vehicle is accelerated, decelerated or steered.
  • Driver assistance system 4 can thereby enable a semi-autonomous or autonomous control of the vehicle.
  • the control device 3 can be further configured to output a warning signal if the vehicle leaves the recognized road F in order to warn the driver of an unintentional agreement from the road F.
  • FIG. 6 illustrates a block diagram of a vehicle 5 according to an embodiment of the invention.
  • the vehicle 5 may be, for example, a car, truck or motorcycle.
  • the vehicle 5 comprises an above-described driver assistance ⁇ 4 assistance system with a device 1 for detecting lanes F in the vehicle environment of the vehicle 5.
  • Figure 7 shows a flowchart of a method for detecting traffic lanes F according to an embodiment of the invention.
  • Vehicle environment detected by a camera device 2 For this purpose, several single images can be combined.
  • the individual pixels of the camera image are determined by means of a method for edge detection evaluated to determine feature points PI to P15.
  • a method for edge detection evaluated to determine feature points PI to P15.
  • Sobel filters for edge detection can be used for this purpose. If the values calculated by the Sobel filter exceed a predetermined threshold, the pixels are identified as feature points PI to P15, which may correspond to lane boundaries.
  • the feature point PI to P15 may preferably lie in a center of a quadratic image section B1 to B3.
  • the size of the image section can be 128x128 pixels, for example. However, the invention is not limited thereto. Thus, the image section does not necessarily have to be square or rectangular.
  • the shape of the image section can be selected for play ⁇ a function of the perspective view of the camera apparatus. 2
  • a method step S4 the image detail is analyzed using a neural network.
  • the neural network is generated or learned using training data from a database.
  • the training data include the illustrations of lane boundaries or lane boundaries without lane boundaries described in connection with FIG.
  • the neural network is designed to analyze and classify any image sections. For each image section, it is detected whether or not the imaged area of the vehicle surroundings depicts a road boundary. The feature points are classified accordingly. Those feature points that are correspondingly classified by the neural network as a lane boundary are further evaluated while the remaining feature points are discarded. On the basis of the remaining feature points, the courses of lane delineations M1, M2 are determined in a method step S5. Based on the course of the roadway boundaries Ml, M2 Roads F are recognized, which are befahrba for the vehicle 5.
  • warning signals can be issued or a semi-autonomous or autonomous Steuerun the vehicle 5 are performed.
  • Tbl to Tb4 are images of objects which are not lane boundaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen von Fahrspuren (F), mit den Schritten: Erfassen (S1) eines Kamerabildes (K) eines Fahrzeugumfelds mittels einer Kameravorrichtung (2) eines Fahrzeugs (5); Ermitteln (S2) von Merkmalspunkten (P1 bis P15) in dem erfassten Kamerabild (K), welche Bereichen möglicher Fahrbahnbegrenzungen (M1, M2) entsprechen; Erzeugen (S3) von Bildausschnitten des erfassten Kamerabildes (K) um einen jeweiligen Merkmalspunkt (P1 bis P15) herum; Analysieren (S4) der Bildausschnitte unter Verwendung eines neuronalen Netzes zur Klassifikation der Merkmalspunkte (P1 bis P15); und Ermitteln (S5) von Fahrspuren im Fahrzeugumfeld unter Berücksichtigung der klassifizierten Merkmalspunkte (P1 bis P15).

Description

VERFAHREN UND VORRICHTUNG ZUM ERKENNEN VON FAHRSPUREN, FAHRERASSISTENZSYSTEM UND FAHRZEUG
Die Erfindung betrifft ein Verfahren zum Erkennen von Fahrspuren, eine Vorrichtung zum Erkennen von Fahrspuren, ein Fahrerassistenzsystem und ein Fahrzeug.
Fahrerassistenzsysteme generieren auf Basis einer Vielzahl von Sensordaten ein Modell der Umgebung des Fahrzeugs. Neben der Detektion von Hindernissen und weiteren Verkehrsteilnehmern ist die Erkennung von Fahrspuren von besonderer Relevanz. Durch Bestimmen der Bewegung des Fahrzeugs in den Fahrspuren kann der Fahrer beim unabsichtlichen Verlassen einer Fahrspur frühzeitig gewarnt werden. Weiter können Fahrerassistenzsysteme den Fahrer beim Halten der Spur unterstützen oder das Fahrzeug autonom entlang der Fahrspur steuern.
Die Erkennung der Fahrspuren erfolgt üblicherweise durch die Bestimmung von Fahrbahnbegrenzungen, worunter insbesondere Fahrspurmarkierungen und Bordsteinkanten zu verstehen sind. Die Druckschrift DE 10 2015 209467 AI offenbart ein Verfahren zur Schätzung von Fahrstreifen unter Verwendung von Merkmalsvektoren, welche auf Basis verschiedener Sensoren unabhängig voneinander bestimmt werden.
Da sich die meist weißen oder gelben Fahrspurmarkierungen von der dunkleren Fahrbahn absetzen, können zur Bestimmung der Fahrspurmarkierungen Kantendetektionsverfahren eingesetzt werden, welche den Übergang zwischen den helleren und dunkleren Regionen erfassen. Verbreitet ist die Verwendung von Sobel-Filtern, wobei im Wesentlichen eine Differenz der Helligkeitswerte zweier benachbarter Gebiete berechnet wird. Bei einer konstanten Helligkeit mittelt sich diese Differenz zu Null, während sich an Kanten von Null verschiedene Werte ergeben.
Zunehmende Verbreitung findet der Einsatz von neuronalen Netzen zur Objekterkennung und insbesondere zur Erkennung von Fahrspurmarkierungen. Derartige Verfahren haben den Vorteil, dass ^
unterschiedliche Umgebungsbedingungen, etwa tageszeit- oder witterungsbedingte Variationen der Helligkeit besser berück¬ sichtigt werden können, als dies für die statischen Sobel-Filter der Fall ist.
Da die Auswertung von erkannten Bildern mittels neuronaler Netze jedoch typischerweise pixelweise erfolgt, ist der Rechenaufwand relativ hoch, was zu einem erhöhten Energieverbrauch und einer reduzierten Schnelligkeit der Auswertung führt.
Es ist daher eine Aufgabe der vorliegenden Erfindung, eine schnelle und präzise Erkennung von Fahrspuren zu ermöglichen.
Diese Aufgabe wird durch ein Verfahren zum Erkennen von
Fahrspuren mit den Merkmalen des Patentanspruchs 1, durch eine Vorrichtung zum Erkennen von Fahrspuren mit den Merkmalen des Patentanspruchs 10, durch ein Fahrerassistenzsystem mit den Merkmalen des Patentanspruchs 14 und ein Fahrzeug mit den Merkmalen des Patentanspruchs 15 gelöst.
Weitere bevorzugte Ausführungsformen sind Gegenstand der Un¬ teransprüche .
Gemäß einem ersten Aspekt schafft die vorliegende Erfindung demnach ein Verfahren zum Erkennen von Fahrspuren, wobei ein Kamerabild eines Fahrzeugumfelds eines Fahrzeugs mittels einer Kameravorrichtung des Fahrzeugs erfasst wird. Merkmalspunkte, welche Bereichen möglicher Fahrbahnbegrenzungen entsprechen, werden ermittelt. Um einen jeweiligen Merkmalspunkt herum werden Bildausschnitte des erfassten Kamerabildes erzeugt. Der
Bildausschnitt wird unter Verwendung eines neuronalen Netzes zur Klassifikation der Merkmalspunkte analysiert. Schließlich werden Fahrspuren im Fahrzeugumfeld unter Berücksichtigung der klassifizierten Merkmalspunkte erkannt.
Gemäß einem zweiten Aspekt schafft die vorliegende Erfindung demnach eine Vorrichtung zum Erkennen von Fahrspuren, welche eine Schnittstelle zum Empfangen eines mittels einer Kameravor- richtung eines Fahrzeugs erfassten Kamerabildes eines Fahr¬ zeugumfelds des Fahrzeugs aufweist. Die Vorrichtung umfasst weiter eine Recheneinrichtung, welche in dem mittels der Schnittstelle empfangenen Kamerabild Merkmalspunkte ermittelt, welche Bereichen möglicher Fahrbahnbegrenzungen entsprechen. Die Recheneinrichtung erzeugt um einen Merkmalspunkt herum Bildausschnitte des erfassten Kamerabildes, analysiert die Bildausschnitte unter Verwendung eines neuronalen Netzes zur Klassifikation der Merkmalspunkte und ermittelt Fahrspuren im Fahrzeugumfeld unter Berücksichtigung der klassifizierten Merkmalspunkte .
Gemäß einem dritten Aspekt betrifft die Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, mit einer Kameravor- richtung, welche ein Kamerabild eines Fahrzeugumfelds des
Fahrzeugs erfasst, und mit einer Vorrichtung zum Erkennen von Fahrspuren anhand des von der Kameravorrichtung erfassten Kamerabildes . Gemäß einem vierten Aspekt betrifft die Erfindung ein Fahrzeug mit einem Fahrerassistenzsystem.
Die Erfindung stellt eine zweistufige Erkennung von Fahrspuren bereit. In einer ersten Stufe wird das Kamerabild mittels vorzugsweise klassischer Verfahren zur Merkmalserkennung analysiert und Merkmalspunkte werden ermittelt, welche Bereichen möglicher Fahrbahnbegrenzungen entsprechen. In diesem ersten Schritt werden in einer groben Auswertung bereits weniger relevante Bereiche ausgesondert, d. h. solche Bereiche, in welchen mit hoher Wahrscheinlichkeit keine Fahrbahnbegrenzungen zu erwarten sind. Dies reduziert den Rechenaufwand in der weiteren Verarbeitung der Daten.
In einer nachfolgenden zweiten Stufe wird eine detailliertere Analyse der aufgefundenen Merkmalspunkte durchgeführt. Hierzu werden Bildausschnitte um die Merkmalspunkte herum mittels eines neuronalen Netzes ausgewertet. Dadurch kann eine Klassifikation der Merkmalspunkte durchgeführt werden, d. h. eine Einordnung, ob der Merkmalspunkt einer Fahrbahnbegrenzung entspricht oder nicht. Die Fahrspuren werden anhand derjenigen Merkmalspunkte ermittelt, welche als Fahrbahnbegrenzungen entsprechende Merkmalspunkte klassifiziert wurden.
Ein weiterer Vorteil neuraler Netzwerke gegenüber Sobel-Filter besteht in der Berücksichtigung größerer Bildausschnitte. So hat ein Sobel-Filter im Allgemeinen einen Erfassungsbereich von etwa 3x3 Pixeln, während der Bildausschnitt für das neurale Netzwerk beispielsweise einen Erfassungsbereich von 128x128 Pixel aufweisen kann. Durch diese größeren Bildausschnitte ist es für das neurale Netzwerk möglich, den Kontext der Umgebung zu erfassen, um den Merkmalspunkt zu klassifizieren. So können beispielsweise Büsche innerhalb des Bildausschnitts auf eine Leitplanke und damit eine Fehlidentifikation bzw. einen Outlier hindeuten. Vorteilhafterweise wird somit ein Umgebungsbereich des Bildausschnittes mit ausgewertet.
Die Erfindung kombiniert somit vorzugsweise klassische Verfahren mit der Verwendung neuronaler Netze. Aufgrund der Vorfilterung müssen jedoch nur noch bestimmte Bereiche des Kamerabildes mittels des neuronalen Netzes analysiert werden und eine Ge¬ samtauswertung sämtlicher Pixel kann entfallen. Die Fahrspurerkennung ist dadurch schnell und effizient durchführbar. Gleichzeitig werden die hohen Erkennungsgenauigkeiten der neuronalen Netze voll ausgeschöpft.
Um zu verhindern, dass Fahrbahnbegrenzungen nicht erkannt werden, werden die Schwellwerte, welche überschritten werden müssen, um ein Pixel als Merkmalspunkt zu detektieren, vorzugsweise relativ niedrig angesetzt. Die dadurch entstehenden falschen Identifizierungen werden anschließend mittels des neuronalen Netzes wieder ausgefiltert. Bei ausschließlicher Verwendung von Sobel-Filtern werden die Schwellwerte typi- scherweise derart gewählt, dass möglichst wenige Fehlidenti¬ fizierungen entstehen. Dadurch können jedoch kontrastarme Fahrbahnbegrenzungen nicht erkannt werden. Durch das erfindungsgemäße zweistufige Verfahren muss kein derartiger Korn- promiss eingegangen werden und die Erkennungsgenauigkeit ist höher .
Gemäß einer bevorzugten Weiterbildung des Verfahrens werden die Merkmalspunkte unter Verwendung von Algorithmen zur Kanten- detektion ermittelt. Die Kantendetektion erfolgt somit mittels klassischer Verfahren und vorzugsweise mittels Verwendung von Sobel-Filtern .
Gemäß einer bevorzugten Weiterbildung des Verfahrens umfassen die möglichen Fahrbahnbegrenzungen Fahrspurmarkierungen.
Insbesondere können ausschließlich Fahrspurmarkierungen als mögliche Fahrbahnbegrenzungen erkannt werden. Unter Fahrspurmarkierungen bzw. Fahrbahnmarkierungen sind farbliche Kennzeichnungen auf der Oberfläche der Fahrbahnen zu verstehen, welche die einzelnen Fahrspuren unterteilen bzw. abgrenzen. Gemäß weiteren Ausführungsformen können die Fahrbahnbegrenzungen jedoch auch Bordsteinkanten, Leitplanken oder Vegetation umfassen, insbesondere falls Fahrbahnmarkierungen fehlen.
Gemäß einer bevorzugten Weiterbildung des Verfahrens ist das neuronale Netz ein Convolutional Neural Network.
Gemäß einer bevorzugten Weiterbildung des Verfahrens wird das neuronale Netz mittels vorgegebener Trainingsdaten aus einer Datenbank eingelernt.
Gemäß einer Weiterbildung umfassen die Trainingsdaten Abbildungen von Fahrbahnbegrenzungen. Die Trainingsdaten können weiter Abbildungen von Strukturen umfassen, welche keine Fahrbahnmarkierungen darstellen. Diese Abbildungen werden vorzugsweise derart gewählt, dass sie Strukturen und Objekte abbilden, welche typischerweise mittels klassischer Kanten¬ detektion fälschlich als Fahrbahnmarkierungen identifiziert werden können. Beispiele können Abbildungen von Fahrzeugen oder von Leitplanken sein, welche keine Fahrbahnbegrenzung darstellen. Das neuronale Netz wird dadurch derart eingelernt, dass Abbildungen von Fahrbahnbegrenzungen von Abbildungen unterschieden werden, welche keine Fahrbahnbegrenzungen zeigen.
Die zur Analyse mittels des neuronalen Netzes verwendeten Bildausschnitte weisen vorzugsweise eine vorgegebene Pixel¬ anzahl bzw. eine vorgegebene Größe auf. Die als Trainingsdaten gewählten Abbildungen entsprechen vorzugsweise typischen Abbildungen von mittels einer Kameravorrichtung eines Fahrzeugs erfassten Bildern des Fahrzeugumfelds dieser vorgegebenen Pixelanzahl bzw. Größe.
Vorzugsweise werden die Abbildungen zumindest teilweise bei unterschiedlichen Helligkeiten erzeugt. Beispielweise können die Abbildungen zu verschiedenen Tageszeiten erzeugt werden. Die Abbildungen können auch unter verschiedenen Beleuchtungsbedingungen erzeugt werden, etwa auf schlecht ausgeleuchteten oder gut ausgeleuchteten Straßen. Weiter können die Abbildungen unter verschiedenen Witterungsbedingungen, etwa Sonnenschein, Nebel, Regen oder Schnee, erfasst werden.
Gemäß einer bevorzugten Weiterbildung des Verfahrens werden die Verläufe von Fahrbahnbegrenzungen ermittelt, indem benachbarte Merkmalspunkte interpoliert werden, welche als zu einer
Fahrbahnbegrenzung gehörend klassifiziert wurden. Anhand der Verläufe der Fahrbahnbegrenzungen werden die für das Fahrzeug befahrbaren Fahrspuren bestimmt.
Gemäß einer bevorzugten Weiterbildung der Vorrichtung ermittelt die Recheneinrichtung die Merkmalspunkte unter Verwendung von Algorithmen zur Kantendetektion .
Gemäß einer bevorzugten Weiterbildung der Vorrichtung verwendet die Recheneinrichtung zur Kantendetektion Sobel-Filter . Gemäß einer bevorzugten Weiterbildung ist die Recheneinrichtung der Vorrichtung dazu ausgebildet, durch Interpolation benachbarter Merkmalspunkte, welche als einer Fahrbahnbegrenzung entsprechend klassifiziert wurden, Verläufe von Fahrbahnbe- grenzungen zu ermitteln. Die Recheneinrichtung bestimmt anhand der Verläufe der Fahrbahnbegrenzungen die für das Fahrzeug befahrbaren Fahrspuren.
Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert.
Es zeigen: ein schematisches Blockschaltbild einer Vorrichtung zum Erkennen von Fahrspuren gemäß einer Ausführungsform der Erfindung;
ein schematisches von einer Kameravorrichtung er- fasstes Kamerabild;
Abbildungen als Trainingsdaten für ein neuronales Netz;
in einem Kamerabild erkannte Fahrbahnbegrenzungen; ein schematisches Blockschaltbild eines Fahreras¬ sistenzsystems ;
ein schematisches Blockschaltbild eines Fahrzeugs; und
ein Flussdiagramm eines Verfahrens zum Erkennen von Fahrspuren .
Weitere mögliche Ausgestaltungen, Weiterbildungen und Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale der Erfindung.
Die beiliegenden Zeichnungen sollen ein weiteres Verständnis der Ausführungsformen der Erfindung vermitteln. Sie veranschaulichen Ausführungsformen und dienen im Zusammenhang mit der Beschreibung der Erklärung von Prinzipien und Konzepten der Erfindung. Andere Ausführungsformen und viele der genannten Vorteile ergeben sich im Hinblick auf die Zeichnungen. Gleiche Bezugszeichen bezeichnen dabei gleiche oder ähnlich wirkende Komponenten .
Figur 1 zeigt ein schematisches Blockdiagramm einer Vorrichtung 1 zum Erkennen von Fahrspuren.
Die Vorrichtung 1 umfasst eine Schnittstelle 11, welche dazu ausgebildet ist, drahtlos oder über eine Drahtverbindung Daten zu empfangen und auszusenden. Die Schnittstelle 11 empfängt insbesondere Kameradaten und überträgt diese an eine Rechen¬ einrichtung 12 der Vorrichtung 1. Die Kameradaten umfassen mindestens ein Kamerabild, welches von einer Kameravorrichtung 2 eines Fahrzeugs erzeugt wurde. Das Kamerabild kann auch aus mehreren Einzelbildern einer Fahrzeugkamera der Kameravor- richtung 2 oder von mehreren Bildern einer Vielzahl von
Fahrzeugkameras der Kameravorrichtung 2 kombiniert werden.
Die Recheneinrichtung 12 analysiert das Kamerabild mittels Bilderkennungsverfahren, um Merkmalspunkte zu extrahieren, welche Bereichen mit Fahrbahnbegrenzungen im Fahrzeugumfeld entsprechen. Die Recheneinrichtung 12 umfasst mindestens einen Mikroprozessor zum Durchführen der Berechnungsschritte.
Die Recheneinrichtung 12 erzeugt um jeden der Merkmalspunkte herum einen jeweiligen Bildausschnitt. Dieser Bildausschnitt dient als Eingangsgröße für ein neuronales Netz, welches den Bildausschnitt bewertet. Bei dem neuronalen Netz handelt es sich vorzugsweise um ein Convolutional Neural Network. Mittels des neuronalen Netzes wird eine Wahrscheinlichkeit berechnet, mit welcher der Bildabschnitt eine Fahrbahnbegrenzung abbildet.
Falls die Wahrscheinlichkeit einen vorgegebenen Schwellenwert überschreitet, erkennt die Recheneinrichtung 12, dass der Merkmalspunkt des Bildausschnittes zu einer Fahrbahnbegrenzung korrespondiert .
Die derart klassifizierten Merkmalspunkte werden von der Recheneinrichtung 12 weiter ausgewertet, um Fahrspuren im
Fahrzeugumfeld des Fahrzeugs zu ermitteln. So kann die Re- cheneinrichtung 12 durch Interpolation von zueinander benachbarten Merkmalspunkten, welche zu Fahrbahnbegrenzungen korrespondieren, den Verlauf der Fahrbahnbegrenzungen im Kamerabild ermitteln. Die zwischen Fahrbahnbegrenzungen ver- laufenden Bereiche können als Fahrbahnen identifiziert werden, und die Recheneinrichtung 12 kann ein Umfeldmodell erzeugen.
Einzelne Aspekte der Vorrichtung 1 werden im Folgenden anhand der Figuren 2 bis 4 genauer illustriert.
So zeigt die Figur 2 ein von einer Kameravorrichtung 2 erfasstes Kamerabild K. Die abgebildeten Objekte umfassen eine rechte Fahrbahnmarkierung 51, eine mittlere Fahrbahnmarkierung 52, eine am rechten Fahrbahnrand befindliche Leitplanke 53 und ein auf einer parallelen Fahrbahn fahrendes Fahrzeug 54.
Die Recheneinrichtung 12 analysiert die Pixel des Kamerabildes K mittels klassischer Verfahren zur Erkennung von Kanten. Insbesondere kann die Recheneinrichtung 12 auf jeden Pixel einen Sobel-Filter anwenden, um eine Kante am bzw. in der Umgebung des Pixels zu erkennen. Der Sobel-Filter kann 3x3 Pixel in der Umgebung des zu untersuchenden Pixels berücksichtigen, kann jedoch auch einen größeren Umgebungsbereich des Pixels einberechnen .
Die Recheneinrichtung 12 kann für jedes Pixel bestimmen, ob das Pixel an oder in der Nähe einer Kante liegt. Insbesondere kann die Recheneinrichtung 12 den durch den mittels des Sobel-Filter berechneten Wert mit einem vorgegebenen Schwellenwert ver- gleichen. Falls der Schwellenwert überschritten wird, bestimmt die Recheneinrichtung 12, dass es sich bei dem Pixel um einen Merkmalspunkt handelt, welcher einer möglichen Fahrbahnbe¬ grenzung entspricht. In dem in Figur 2 gezeigten Kamerabild K ermittelt die Re¬ cheneinrichtung 12 eine Gesamtheit von 15 Merkmalspunkten PI bis P15. Dies ist nur beispielhaft zu verstehen. Im Allgemeinen wird eine größere Anzahl von Merkmalspunkten erzeugt werden. 1
Für jeden Merkmalspunkt PI bis P15 erzeugt die Recheneinrichtung 12 einen Bildausschnitt Bl bis B3, welche in Figur 2 der An¬ schaulichkeit halber nur für die ersten drei Merkmalspunkte PI bis P3 eingezeichnet sind. Die Bildausschnitte Bl bis B3 können eine vorgegebene Größe aufweisen, beispielsweise von 128x128 Pixeln. Der Merkmalspunkt PI bis P15 ist jeweils vorzugsweise im Zentrum des jeweiligen Bildausschnitts Bl bis B3 angeordnet.
In Figur 3 wird die Erzeugung des zum weiteren Analysieren der Bildausschnitte Bl bis B3 verwendeten neuronalen Netzes genauer erläutert. Demnach wird zuerst eine Datenbank DB mit Trai¬ ningsdaten generiert. Die Trainingsdaten umfassen Abbildungen, welche mittels einer Fahrzeugkamera erfasst wurden. Diese werden vorzugsweise manuell in zwei Gruppen klassifiziert. Eine erste Gruppe Tal bis Ta4 umfasst Abbildungen, welche Fahrbahnbe¬ grenzungen zeigen. Die Abbildungen können ausschließlich Bilder von Fahrbahnmarkierungen umfassen. Die Abbildungen können gemäß weiteren Ausführungsformen jedoch auch Bordsteinkanten oder weitere Fahrbahnbegrenzungen abbilden. Die Abbildungen können hierzu bei verschiedenen Helligkeiten oder Witterungsbedingungen generiert werden. Die zweite Gruppe umfasst Abbildungen Tbl bis Tb4, welche Objekte mit Kanten zeigen, welche jedoch keine Fahrbahnbegrenzungen sind. Hierbei kann es sich um Abbildungen von Fahrzeugen Tbl, Tb3, Leitplanken Tb2 oder Brücken Tb4 handeln .
Das neuronale Netz wird nun derart trainiert, dass die Ab¬ bildungen der ersten Gruppe Tal bis Ta4 als Abbildungen von Fahrbahnbegrenzungen klassifiziert werden, während die Ab¬ bildungen der zweiten Gruppe Tbl bis Tb4 als Abbildungen klassifiziert werden, welche keine Fahrbahnbegrenzungen zeigen. Nach der Trainingsphase kann die Recheneinrichtung 12 mittels des neuronalen Netzes beliebige Bildausschnitte Bl bis B3 klas- sifizieren. Hierzu kann zuerst mittels des neuronalen Netzes eine Wahrscheinlichkeit ausgegeben werden, dass es sich bei dem Bildausschnitt Bl bis B3 um eine Abbildung einer Fahrbahnbe¬ grenzung handelt. Falls die berechnete Wahrscheinlichkeit einen vorgegebenen Schwellenwert, beispielsweise 0,5 überschreitet, klassifiziert die Recheneinrichtung 12 den Bildausschnitt Bl bis B3 als zu einer Fahrbahnbegrenzung korrespondierend. Für die Merkmalspunkte PI bis P15 des Kamerabildes K erkennt die Recheneinrichtung 12 beispielsweise, dass es sich bei den Merkmalspunkten P2, P5 bis P8 der mittleren Fahrbahnmarkierung 52 und bei den Merkmalspunkten PI, P9 bis P13 der rechten Fahrbahnmarkierung 51 um Merkmalspunkte handelt, welche
Fahrbahnbegrenzungen entsprechen. Umgekehrt werden die Messpunkte P4, P3, P14, P15 der Leitplanke 53 und des Fahrzeugs 54 als Fehlidentifikationen verworfen, da es sich bei den abgebildeten Objekten nicht um Fahrbahnbegrenzungen handelt. Zur Ermittlung der Fahrspuren bezieht die Recheneinrichtung 12 vorzugsweise lediglich diejenigen Merkmalspunkte PI bis P15 ein, welche als zu Fahrbahnbegrenzungen korrespondierend erkannt wurden . Die Recheneinrichtung 12 kann nun durch Interpolation von benachbarten verbleibenden Merkmalspunkten PI bis P15 bzw. Pixeln die entsprechenden Fahrbahnbegrenzungen ermitteln.
Wie in Figur 4 gezeigt, erkennt die Recheneinrichtung 12 für das in Figur 2 abgebildete Kamerabild K beispielsweise eine erste Fahrbahnbegrenzung Ml und eine zweite Fahrbahnbegrenzung M2. Entsprechend ermittelt die Recheneinrichtung 12, dass zwischen den Fahrbahnbegrenzungen Ml, M2 eine Fahrbahn F verläuft. Vorzugsweise wird die beschriebene Erkennung der Fahrbahnen iterativ durchgeführt, wobei die bereits erkannten Fahrbahn¬ begrenzungen und Fahrbahnen aktualisiert werden.
In Figur 5 ist ein Blockschaltbild eines Fahrerassistenzsystem 4 für ein Fahrzeug gemäß einer Ausführungsform der Erfindung illustriert. Das Fahrerassistenzsystem 4 umfasst eine Kame¬ ravorrichtung 2, welche eine oder eine Vielzahl von Fahr- zeugkameras aufweist, welche an dem Fahrzeug angeordnet oder anordenbar sind.
Das Fahrerassistenzsystem 4 umfasst weiter eine oben be- schriebene Vorrichtung 1 zum Erkennen von Fahrspuren. Die
Vorrichtung umfasst eine oben beschriebene Schnittstelle 12, welche die von der Kameravorrichtung 2 erfassten Kamerabilder empfängt, sowie eine Recheneinrichtung 12, welche anhand der Kamerabilder Fahrbahnen F ermittelt.
Das Fahrerassistenzsystem 4 kann eine Steuervorrichtung 3 umfassen, welche bestimmte Fahrfunktionen des Fahrzeugs steuern kann. So kann die Steuervorrichtung 3 in Abhängigkeit von den erkannten Fahrspuren das Fahrzeug derart ansteuern, dass das Fahrzeug beschleunigt, abgebremst oder gelenkt wird. Das
Fahrerassistenzsystem 4 kann dadurch eine halbautonome oder autonome Steuerung des Fahrzeugs ermöglichen. Die Steuervorrichtung 3 kann weiter dazu ausgebildet sein, ein Warnsignal auszugeben, falls das Fahrzeug die erkannte Fahrbahn F verlässt, um den Fahrer vor einem unbeabsichtigten Abkommen von der Fahrbahn F zu warnen.
In Figur 6 ist ein Blockschaltbild eines Fahrzeugs 5 gemäß einer Ausführungsform der Erfindung illustriert. Bei dem Fahrzeug 5 kann es sich etwa um einen PKW, LKW oder ein Motorrad handeln. Das Fahrzeug 5 umfasst ein oben beschriebenes Fahrerassis¬ tenzsystem 4 mit einer Vorrichtung 1 zum Erkennen von Fahrspuren F in der Fahrzeugumgebung des Fahrzeugs 5. Figur 7 zeigt ein Flussdiagramm eines Verfahrens zum Erkennen von Fahrspuren F gemäß einer Ausführungsform der Erfindung.
In einem Verfahrensschritt Sl wird ein Kamerabild eines
Fahrzeugumfelds mittels einer Kameravorrichtung 2 erfasst. Hierzu können auch mehrere Einzelbilder kombiniert werden.
Im weiteren Verfahrensschritt S2 werden die einzelnen Pixel des Kamerabildes mittels eines Verfahrens zur Kantendetektion ausgewertet, um Merkmalspunkte PI bis P15 zu ermitteln. Hierzu können beispielsweise Sobel-Filter zur Kantendetektion verwendet werden. Falls die mittels des Sobel-Filters berechneten Werte einen vorgegebenen Schwellenwert überschreiten, werden die Pixel als Merkmalspunkte PI bis P15 identifiziert, welche Fahrbahnbegrenzungen entsprechen können.
Um jeden Merkmalspunkt PI bis P15 herum wird in einem Ver¬ fahrensschritt S3 ein Bildausschnitt Bl bis B3 erzeugt. Der Merkmalspunkt PI bis P15 kann vorzugsweise in einem Zentrum eines quadratischen Bildausschnitts Bl bis B3 liegen. Die Größe des Bildausschnitts kann beispielsweise 128x128 Pixel betragen. Die Erfindung ist jedoch nicht hierauf beschränkt. So muss der Bildausschnitt nicht zwingend quadratisch oder rechteckig ausgebildet sein. Die Form des Bildausschnitts kann bei¬ spielsweise in Abhängigkeit von der perspektivischen Darstellung der Kameravorrichtung 2 gewählt werden.
In einem Verfahrensschritt S4 wird der Bildausschnitte unter Verwendung eines neuronalen Netzes analysiert. Das neuronale Netz wird hierzu anhand von Trainingsdaten aus einer Datenbank generiert bzw. eingelernt. Die Trainingsdaten umfassen die im Zusammenhang mit der Figur 3 beschriebenen Abbildungen von Fahrbahnbegrenzungen bzw. von Fahrbahnumgebungen ohne Fahr- bahnbegrenzungen . Nach der Trainingsphase ist das neuronale Netz dazu ausgebildet, beliebige Bildausschnitte zu analysieren und zu klassifizieren. Für jeden Bildausschnitt wird erkannt, ob der abgebildete Bereich des Fahrzeugumfelds eine Fahrbahnbegrenzung abbildet oder nicht. Die Merkmalspunkte werden entsprechend klassifiziert. Diejenigen Merkmalspunkte, welche mittels des neuronalen Netzes als einer Fahrbahnbegrenzung entsprechend klassifiziert werden, werden weiter ausgewertet, während die verbleibenden Merkmalspunkte verworfen werden. Anhand der verbleibenden Merkmalspunkte werden in einem Verfahrensschritt S5 die Verläufe von Fahrbahnbegrenzungen Ml, M2 ermittelt. Anhand der Verläufe der Fahrbahnbegrenzungen Ml, M2 werden Fahrbahnen F erkannt, welche für das Fahrzeug 5 befahrba sind .
Anhand der erkannten Fahrbahnen F können weiter Warnsignale ausgegeben werden oder eine halbautonome oder autonome Steuerun des Fahrzeugs 5 durchgeführt werden.
BEZUGSZEICHEN
1 Vorrichtung zum Erkennen von Fahrspuren
2 Kameravorrichtung
3 Steuervorrichtung
4 Fahrerassistenzsystem
5 Fahrzeug
11 Schnittstelle
12 Recheneinrichtung
51 rechte Fahrspurmarkierung
52 mittlere Fahrspurmarkierung
53 Leitplanke
54 Fahrzeug
F Fahrbahn
Ml, M2 Fahrbahnbegrenzungen
PI bis P15 Merkmalspunkte
Bl bis B3 Bildausschnitte
Tal bis Ta4 Abbildungen von Fahrbahnbegrenzungen
Tbl bis Tb4 Abbildungen von Objekten, welche keine Fahrbahnbegrenzungen sind

Claims

PATENTANSPRÜCHE
Verfahren zum Erkennen von Fahrspuren (F) , mit den Schritten :
Erfassen (Sl) eines Kamerabildes (K) eines Fahr¬ zeugumfelds mittels einer Kameravorrichtung (2) eines Fahrzeugs (5) ;
Ermitteln (S2) von Merkmalspunkten (PI bis P15) in dem erfassten Kamerabild (K) , welche Bereichen möglicher Fahrbahnbegrenzungen (Ml, M2) entsprechen;
Erzeugen (S3) von Bildausschnitten des erfassten Kamerabildes (K) um einen j eweiligen Merkmalspunkt (PI bis PI 5) herum;
Analysieren (S4) der Bildausschnitte unter Verwendung eines neuronalen Netzes zur Klassifikation der Merkmalspunkte (PI bis P15) ; und
Ermitteln (S5) von Fahrspuren im Fahrzeugumfeld unter Berücksichtigung der klassifizierten Merkmalspunkte (PI bis P15) .
Verfahren nach Anspruch 1, wobei die Merkmalspunkte (PI bis P15) unter Verwendung von Algorithmen zur Kantendetektion ermittelt werden.
Verfahren nach Anspruch 2, wobei die Kantendetektion die Verwendung von Sobel-Filtern umfasst.
Verfahren nach einem der vorangehenden Ansprüche, wobei die möglichen Fahrbahnbegrenzungen (Ml, M2) Fahrspurmarkierungen (51, 52) umfassen. Verfahren nach einem der vorangehenden Ansprüche, wobei das neuronale Netz ein Convolutional Neural Network ist.
Verfahren nach einem der vorangehenden Ansprüche, wobei das neuronale Netz mittels vorgegebener Trainingsdaten aus einer Datenbank eingelernt wird.
Verfahren nach Anspruch 6, wobei die Trainingsdaten Abbildungen von Fahrbahnbegrenzungen (Ml, M2) und Abbildungen von Strukturen umfassen, welche keine Fahrbahnbegrenzungen (Ml, M2) darstellen.
Verfahren nach Anspruch 7, wobei die Abbildungen zumindest teilweise bei unterschiedlichen Helligkeiten und/oder Tageszeiten und/oder Witterungsbedingungen erzeugt wurden.
Verfahren nach einem der vorangehenden Ansprüche, wobei durch Interpolation benachbarter Merkmalspunkte (PI bis P15) , welche als einer Fahrbahnbegrenzung entsprechend klassifiziert wurden, Verläufe von Fahrbahnbegrenzungen
(Ml, M2) ermittelt werden, und wobei anhand der Verläufe der Fahrbahnbegrenzungen (Ml, M2) die für das Fahrzeug
(5) befahrbaren Fahrspuren (F) bestimmt werden.
Vorrichtung (1) zum Erkennen von Fahrspuren (F) , mit: einer Schnittstelle (11) zum Empfangen eines mittels einer Kameravorrichtung (2) eines Fahrzeugs (5) er- fassten Kamerabildes (K) eines Fahrzeugumfelds des Fahrzeugs (5) ; und einer Recheneinrichtung (12), welche dazu ausgebildet ist :
- Merkmalspunkte (PI bis P15) in dem mittels der Schnittstelle (11) empfangenen Kamerabild (K) zu er¬ mitteln, welche Bereichen möglicher Fahrbahnbegren- zungen (Ml, M2) entsprechen,
- Bildausschnitte des erfassten Kamerabildes (K) um einen jeweiligen Merkmalspunkt (PI bis P15) herum zu erzeugen,
- die Bildausschnitte unter Verwendung eines neuronalen Netzes zur Klassifikation der Merkmalspunkte (PI bis P15) zu analysieren, und
- Fahrspuren (F) im Fahrzeugumfeld unter Berücksichtigung der klassifizierten Merkmalspunkte (PI bis P15) zu ermitteln.
11. Vorrichtung (1) nach Anspruch 10, wobei die Recheneinrichtung (12) die Merkmalspunkte (PI bis P15) unter Verwendung von Algorithmen zur Kantendetektion ermittelt .
12. Vorrichtung (1) nach Anspruch 10 oder 11, wobei die Recheneinrichtung (12) zur Kantendetektion Sobel-Filter verwendet .
13. Vorrichtung (1) nach einem der Ansprüche 10 bis 12, wobei die Recheneinrichtung dazu ausgebildet ist, durch Interpolation benachbarter Merkmalspunkte (PI bis P15) , welche als einer Fahrbahnbegrenzung (Ml, M2) entsprechend klassifiziert wurden, Verläufe von Fahr¬ bahnbegrenzungen (Ml, M2) zu ermitteln, und anhand der Verläufe der Fahrbahnbegrenzungen (Ml, M2) die für das Fahrzeug (5) befahrbaren Fahrspuren (F) zu bestimmen.
14. Fahrerassistenzsystem (4) für ein Fahrzeug (5), mit einer Kameravorrichtung (2), welche dazu ausgebildet ist, ein Kamerabild (K) eines Fahrzeugumfelds des Fahrzeugs (5) zu erfassen; und einer Vorrichtung (1) zum Erkennen von Fahrspuren (F) anhand des von der Kameravorrichtung (2) erfassten Kamerabildes (K) nach einem der Ansprüche 10 bis 13.
Fahrzeug (5) mit einem Fahrerassistenzsystem (4) nach Anspruch 14.
PCT/DE2018/200078 2017-09-22 2018-08-31 Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug WO2019057252A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112018003499.2T DE112018003499A5 (de) 2017-09-22 2018-08-31 Verfahren und Vorrichtung zum Erkennen von Fahrspuren, Fahrerassistenzsystem und Fahrzeug
CN201880054786.1A CN111066024A (zh) 2017-09-22 2018-08-31 用于识别车道的方法和装置、驾驶员辅助系统以及车辆
US16/643,973 US11417117B2 (en) 2017-09-22 2018-08-31 Method and device for detecting lanes, driver assistance system and vehicle
JP2020514970A JP2020534600A (ja) 2017-09-22 2018-08-31 車線認識方法および装置、運転支援システムならびに車両

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017216802.1A DE102017216802A1 (de) 2017-09-22 2017-09-22 Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
DE102017216802.1 2017-09-22

Publications (1)

Publication Number Publication Date
WO2019057252A1 true WO2019057252A1 (de) 2019-03-28

Family

ID=63637607

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2018/200078 WO2019057252A1 (de) 2017-09-22 2018-08-31 Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug

Country Status (5)

Country Link
US (1) US11417117B2 (de)
JP (1) JP2020534600A (de)
CN (1) CN111066024A (de)
DE (2) DE102017216802A1 (de)
WO (1) WO2019057252A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164228A (zh) * 2020-09-15 2021-01-01 深圳市点创科技有限公司 驾驶电动车未佩戴头盔行为检测方法、电子设备、存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009048892A1 (de) * 2009-05-29 2010-12-09 GM Global Technology Operations, Inc., Detroit Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102011122310A1 (de) * 2011-12-23 2015-06-18 Daimler Ag Verfahren und Vorrichtung zur Erkennung von Fahrspurmarkierungen
DE102015209467A1 (de) 2015-05-22 2016-11-24 Continental Teves Ag & Co. Ohg Verfahren zur Schätzung von Fahrstreifen
DE102017105661A1 (de) * 2016-03-17 2017-09-21 Ford Global Technologies, Llc Fahrzeug-fahrspurgrenzposition

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202877A (ja) * 1995-01-31 1996-08-09 Toyota Motor Corp 画像認識装置
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
DE10127034A1 (de) * 2001-06-02 2002-12-05 Opel Adam Ag Verfahren und Vorrichtung zur Ermittlung eines Spurverlaufs einer Fahrbahn
US8670592B2 (en) * 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
US8773535B2 (en) 2010-12-08 2014-07-08 GM Global Technology Operations LLC Adaptation for clear path detection using reliable local model updating
EP2549408A1 (de) * 2011-07-20 2013-01-23 Delphi Technologies, Inc. Verfahren zur Detektion und Klassifikation von Objekten
DE102011111856B4 (de) * 2011-08-27 2019-01-10 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Detektion mindestens einer Fahrspur in einem Fahrzeugumfeld
JP6185418B2 (ja) * 2014-03-27 2017-08-23 トヨタ自動車株式会社 走路境界区画線検出装置
JP6141788B2 (ja) * 2014-04-14 2017-06-07 本田技研工業株式会社 レーンマーク認識装置
CN104036253A (zh) * 2014-06-20 2014-09-10 智慧城市系统服务(中国)有限公司 一种车道线追踪方法及系统
CN104967885B (zh) * 2015-03-27 2019-01-11 哈尔滨工业大学深圳研究生院 一种基于视频内容感知的广告推荐方法及系统
US9884623B2 (en) * 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
CN105046235B (zh) * 2015-08-03 2018-09-07 百度在线网络技术(北京)有限公司 车道线的识别建模方法和装置、识别方法和装置
CN105260699B (zh) * 2015-09-10 2018-06-26 百度在线网络技术(北京)有限公司 一种车道线数据的处理方法及装置
WO2018126228A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Sign and lane creation for high definition maps used for autonomous vehicles
CN107092862A (zh) * 2017-03-16 2017-08-25 浙江零跑科技有限公司 一种基于卷积神经网络的车道边缘检测方法
CN107145904A (zh) * 2017-04-28 2017-09-08 北京小米移动软件有限公司 图像类别的确定方法、装置及存储介质
US10401866B2 (en) * 2017-05-03 2019-09-03 GM Global Technology Operations LLC Methods and systems for lidar point cloud anomalies
US10634317B2 (en) * 2017-08-03 2020-04-28 Toyota Motor Engineering & Manufacturing North America, Inc. Dynamic control of vehicle lamps during maneuvers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009048892A1 (de) * 2009-05-29 2010-12-09 GM Global Technology Operations, Inc., Detroit Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102011122310A1 (de) * 2011-12-23 2015-06-18 Daimler Ag Verfahren und Vorrichtung zur Erkennung von Fahrspurmarkierungen
DE102015209467A1 (de) 2015-05-22 2016-11-24 Continental Teves Ag & Co. Ohg Verfahren zur Schätzung von Fahrstreifen
DE102017105661A1 (de) * 2016-03-17 2017-09-21 Ford Global Technologies, Llc Fahrzeug-fahrspurgrenzposition

Also Published As

Publication number Publication date
JP2020534600A (ja) 2020-11-26
US11417117B2 (en) 2022-08-16
DE102017216802A1 (de) 2019-03-28
CN111066024A (zh) 2020-04-24
US20200410256A1 (en) 2020-12-31
DE112018003499A5 (de) 2020-04-30

Similar Documents

Publication Publication Date Title
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE102013101639A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
WO2016188523A1 (de) Verfahren zur schätzung von fahrstreifen
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102009050502A1 (de) Detektion eines freien Pfads unter Verwendung eines hierarchischen Ansatzes
DE102009050492A1 (de) Detektion eines freien Pfads unter Verwendung eines segmentierungsbasierten Verfahrens
WO2014032904A1 (de) Verfahren und vorrichtung zum erkennen einer position eines fahrzeugs auf einer fahrspur
DE102009050505A1 (de) Detektion eines freien Pfads durch Strassenmodellerstellung
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
DE102016118497A1 (de) Ermittlung einer virtuellen Fahrspur für eine von einem Kraftfahrzeug befahrene Straße
WO2013072231A1 (de) Verfahren zur nebeldetektion
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
EP2704096A1 (de) Verfahren zum kalibrieren einer Bilderfassungseinrichtung
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
WO2009097883A1 (de) Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung
WO2019057252A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
EP3704631A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18772723

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020514970

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18772723

Country of ref document: EP

Kind code of ref document: A1