DE102020003924A1 - Method for camera-based recognition of at least one lane and a vehicle using the method - Google Patents
Method for camera-based recognition of at least one lane and a vehicle using the method Download PDFInfo
- Publication number
- DE102020003924A1 DE102020003924A1 DE102020003924.3A DE102020003924A DE102020003924A1 DE 102020003924 A1 DE102020003924 A1 DE 102020003924A1 DE 102020003924 A DE102020003924 A DE 102020003924A DE 102020003924 A1 DE102020003924 A1 DE 102020003924A1
- Authority
- DE
- Germany
- Prior art keywords
- lane
- vehicle
- camera
- information
- travel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000009434 installation Methods 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 description 6
- 230000002411 adverse Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Abstract
Die Erfindung betrifft ein Verfahren zum kamerabasierten Erkennen wenigstens einer Fahrspur (1) in einem entgegen einer Fahrtrichtung (F) eines Fahrzeugs (2) ausgerichteten ersten Sichtbereich (3.1), bei dem zum Erkennen der Fahrspur (1) und Generierung von Fahrspurinformationen Kamerabilder von wenigstens zwei Kameras (4) ausgewertet werden, wobei eine erste Kamera (4.1) wenigstens teilweise entgegen der Fahrtrichtung (F) ausgerichtet ist und den ersten Sichtbereich (3.1) erfasst und eine zweite Kamera (4.2) wenigstens teilweise in Fahrtrichtung (F) ausgerichtet ist und einen zweiten Sichtbereich (3.2) erfasst. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass die zweite Kamera (3.2) in Fahrtrichtung (F) vorausliegende Fahrspurmarkierungen (5) erfasst und diese mit Hilfe von Geometrie-Informationen und Odometrie-Informationen aus dem zweiten Sichtbereich (3.2) in den ersten Sichtbereich (3.1) transponiert werden. The invention relates to a method for the camera-based detection of at least one lane (1) in a first field of view (3.1) oriented against a direction of travel (F) of a vehicle (2), in which camera images of at least two cameras (4) are evaluated, a first camera (4.1) being at least partially aligned against the direction of travel (F) and capturing the first field of view (3.1) and a second camera (4.2) being at least partially aligned in the direction of travel (F) and a second field of view (3.2) captured. The method according to the invention is characterized in that the second camera (3.2) detects lane markings (5) lying ahead in the direction of travel (F) and transfers these with the help of geometry information and odometry information from the second viewing area (3.2) to the first viewing area (3.1 ) can be transposed.
Description
Die Erfindung betrifft ein Verfahren zum kamerabasierten Erkennen wenigstens einer Fahrspur in einem entgegen einer Fahrtrichtung eines Fahrzeugs ausgerichteten ersten Sichtbereich nach der im Oberbegriff von Anspruch 1 näher definierten Art sowie ein Fahrzeug, welches das Verfahren nutzt.The invention relates to a method for camera-based detection of at least one lane in a first field of vision oriented against a direction of travel of a vehicle according to the type defined in more detail in the preamble of
Um bei einer teil- oder vollautomatisierten Steuerung von Fahrzeugen Manöver gefahrlos durchführen zu können, werden für eine Umgebungserkennung hochpräzise Sensordaten benötigt, welche einer Fahrzeugsteuereinheit zur Steuerung des Fahrzeugs übermittelt werden. Hierzu zählen beispielsweise Informationen von in der Nähe befindlichen weiteren Verkehrsteilnehmern, einem Straßenverlauf oder stationären Umgebungsobjekten. Liegen diese Informationen vor, kann die Fahrzeugsteuereinheit eine Trajektorie für das Fahrzeug unter Vermeidung von Kollisionen berechnen.In order to be able to safely carry out maneuvers in the case of partially or fully automated control of vehicles, high-precision sensor data are required for environmental detection, which are transmitted to a vehicle control unit for controlling the vehicle. This includes, for example, information from other road users in the vicinity, a course of the road or stationary surrounding objects. If this information is available, the vehicle control unit can calculate a trajectory for the vehicle while avoiding collisions.
Ein Teilbereich der Umgebungserkennung stellt dabei das Erfassen von Abständen dar. Hierzu werden beispielsweise Radarsensoren, Lidare, Ultraschallsensoren und/oder Kameras eingesetzt. In Abhängigkeit des Sensortyps können zu verschiedenen Situationen Probleme bei einer Messgrößenerfassung auftreten. So können insbesondere Radarsensoren und Ultraschallsensoren bei Regen, insbesondere bei dem Auftreten von Spritzwasserfontänen, falsche Abstandsinformationen liefern. Tritt Nebel auf, ist die Sichtweite von Kameras eingeschränkt, wodurch diese entfernte Objekte nicht erkennen können. Ein weiteres Problem im Zusammenhang des Einsatzes von Kameras sind Reflektionen, welche beispielsweise bei tiefstehender Sonne auftreten können, da hier helles von der Sonne ausgestrahltes Licht direkt in die Kamera einfällt und somit einen von der Kamera umfassten optischen Sensor blendet. In diesem Fall ist eine korrekte Umgebungserkennung mit Hilfe von Kameras nicht möglich. Bei einem solchen Systemausfall kann das Durchführen von Manövern wie Fahrspurwechseln eingeschränkt oder nicht durchführbar sein.A sub-area of the environment recognition is the detection of distances. For this purpose, for example, radar sensors, lidars, ultrasonic sensors and / or cameras are used. Depending on the type of sensor, problems with measured variable acquisition can occur in various situations. In particular, radar sensors and ultrasonic sensors can provide incorrect distance information when it rains, in particular when spray water fountains occur. If fog occurs, the range of vision of cameras is limited, which means that they cannot see distant objects. Another problem in connection with the use of cameras are reflections, which can occur, for example, when the sun is low, since here bright light emitted by the sun falls directly into the camera and thus blinds an optical sensor encompassed by the camera. In this case, correct detection of the surroundings with the aid of cameras is not possible. In the event of such a system failure, performing maneuvers such as changing lanes may be restricted or impossible.
Aus der
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur kamerabasierten Erkennung wenigstens einer hinter einem Fahrzeug liegenden Fahrspuren anzugeben, welches eine Fahrspurerkennung auch bei widrigen optischen Bedingungen wie einer Blendung einer rückwärtigen, die hinter dem Fahrzeug liegenden Fahrspuren erfassenden Kamera, ermöglicht.The present invention is based on the object of specifying a method for camera-based detection of at least one lane behind a vehicle, which enables lane detection even under adverse optical conditions such as dazzling a rear camera that detects the lanes behind the vehicle.
Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zum kamerabasierten Erkennen wenigstens einer Fahrspur in einem entgegen einer Fahrtrichtung eines Fahrzeugs ausgerichteten ersten Sichtbereich mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sowie ein Fahrzeug, welches das Verfahren nutzt, ergeben sich auch aus den hiervon abhängigen Ansprüchen.According to the invention, this object is achieved by a method for camera-based detection of at least one lane in a first field of vision oriented against a direction of travel of a vehicle with the features of
Diese Aufgabe wird bei einem Verfahren der eingangs genannten Art erfindungsgemäß dadurch gelöst, dass die zweite Kamera in Fahrtrichtung vorausliegende Fahrspurmarkierungen erfasst und diese mit Hilfe von Geometrie-Informationen und Odometrie-Informationen aus dem zweiten Sichtbereich in den ersten Sichtbereich transponiert werden.This object is achieved according to the invention in a method of the type mentioned at the outset in that the second camera detects lane markings lying ahead in the direction of travel and these are transposed from the second field of view into the first field of view with the aid of geometry information and odometry information.
Im Falle, dass in einem Bereich hinter dem Fahrzeug eine starke Lichtquelle vorliegt, welche die erste vom Fahrzeug umfasste Kamera blendet, beispielsweise eine tiefstehende Sonne oder direkt auf die erste Kamera ausgerichtete Schweinwerfer eines hinter dem Fahrzeug fahrenden weiteren Fahrzeugs, ist mit Hilfe des Verfahrens eine Erkennung von hinter dem Fahrzeug befindlichen Fahrspuren weiterhin möglich. Da die starke Lichtquelle von einer rückwärtigen Seite auf das Fahrzeug scheint, wird die zweite Kamera durch die starke Lichtquelle nicht beeinträchtigt und kann weiterhin vor dem Fahrzeug liegende Fahrspurmarkierungen erfassen und zum Erkennen der Fahrspuren verwertbare Kamerabilder erzeugen. Mit Hilfe der von der zweiten Kamera erzeugten Kamerabilder werden Fahrspurinformationen generiert, welche eine Zuordnung einer Relativposition zwischen Fahrzeug und Fahrspurmarkierungen erlauben. Bewegt sich das Fahrzeug weiter in Fahrtrichtung fort, wandern die Fahrspurmarkierungen aus dem zweiten in den ersten Sichtbereich. Durch die Zuordnung der Relativposition zwischen Fahrzeug und Fahrspurmarkierungen lässt sich somit eine Position bzw. ein Verlauf der Fahrspuren im rückwärtigen Teil hinter dem Fahrzeug bestimmen, wodurch die Fahrspuren zur Erkennung ebendieser in von der ersten Kamera erzeugten Kamerabilder einblendbar sind.In the event that there is a strong light source in an area behind the vehicle that blinds the first camera comprised by the vehicle, for example a low-lying sun or headlights of another vehicle driving behind the vehicle that are directly aimed at the first camera, the method can be used to Detection of lanes behind the vehicle is still possible. Since the strong light source shines onto the vehicle from a rear side, the second camera is not impaired by the strong light source and can continue to detect lane markings in front of the vehicle Generate usable camera images to recognize the lanes. With the help of the camera images generated by the second camera, lane information is generated which allows a relative position to be assigned between the vehicle and the lane markings. If the vehicle continues to move in the direction of travel, the lane markings move from the second to the first viewing area. By assigning the relative position between the vehicle and lane markings, a position or a course of the lanes in the rear part behind the vehicle can be determined, so that the lanes can be faded in to identify them in camera images generated by the first camera.
Eine vorteilhafte Weiterbildung des Verfahrens sieht vor, dass die Fahrspurinformationen wenigstens eine der folgenden Informationen umfassen:
- - Fahrspurpunkte zur Kennzeichnung von Fahrspurmarkierungen;
- - eine Anzahl an im ersten Sichtbereich vorhandener Fahrspuren;
- - eine aktuell vom Fahrzeug befahrene Fahrspur;
- - eine Information, ob eine im ersten Sichtbereich vorhandene Fahrspur von einem weiteren Verkehrsteilnehmer befahren wird; und/oder
- - wenigstens eine Fahrspurbreite.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des Verfahrens umfassen die Geometrie-Informationen wenigstens eine der folgenden Informationen:
- - geometrische Dimensionen des Fahrzeugs;
- - eine Einbauposition der wenigstens zwei Kameras; und/oder
- - eine Ausrichtung der wenigstens zwei Kameras.
- - Lane points for marking lane markings;
- a number of lanes present in the first field of view;
- - a lane currently being used by the vehicle;
- - Information as to whether a lane in the first field of vision is being used by another road user; and or
- - at least one lane width.
According to a further advantageous embodiment of the method, the geometry information includes at least one of the following information:
- - geometrical dimensions of the vehicle;
- - An installation position of the at least two cameras; and or
- an alignment of the at least two cameras.
Um ein Transponieren der Fahrspurmarkierungen aus dem zweiten in den ersten Sichtbereich zu ermöglichen, müssen Geometrie-Information vorliegen, welche eine Relativposition und eine Ausrichtung zwischen Fahrspurmarkierungen und den von den Kameras erfassten Sichtbereichen beschreiben. Bezüglich der Fahrzeugdimensionen ist insbesondere eine Fahrzeugausdehnung in Fahrtrichtung relevant, da bei einem langen Fahrzeug die Fahrspurmarkierungen beim Befahren der Fahrbahn später im ersten Sichtbereich auftauchen, als bei einem kurzen Fahrzeug.In order to enable the lane markings to be transposed from the second to the first viewing area, geometry information must be available which describes a relative position and an alignment between lane markings and the viewing areas captured by the cameras. With regard to the vehicle dimensions, the extent of the vehicle in the direction of travel is particularly relevant, since with a long vehicle the lane markings appear later in the first field of vision when driving on the roadway than with a short vehicle.
Eine weitere vorteilhafte Ausgestaltung des Verfahrens sieht ferner vor, dass die Odometrie-Informationen wenigstens eine der folgenden Informationen umfassen:
- - eine Fahrgeschwindigkeit des Fahrzeugs; und/oder
- - eine Bewegungsrichtung des Fahrzeugs.
- - a traveling speed of the vehicle; and or
- - a direction of movement of the vehicle.
Neben den Geometrie-Informationen werden Odometrie-Informationen zur korrekten Vorhersage des Auftauchens der Fahrspurmarkierungen im ersten Sichtbereich benötigt. So tauchen beispielsweise die Fahrspurmarkierungen im ersten Sichtbereich früher auf, je schneller das Fahrzeug fährt. Ebenso ist die Bewegungsrichtung des Fahrzeugs, beispielsweise abgeleitet aus einer Lenkradstellung, entscheidend in welchem Bildausschnitt des ersten Sichtbereichs die Fahrspurmarkierungen auftauchen.In addition to the geometry information, odometry information is required for the correct prediction of the appearance of the lane markings in the first field of vision. For example, the lane markings in the first field of vision appear earlier the faster the vehicle drives. The direction of movement of the vehicle, for example derived from a steering wheel position, is also decisive in which image section of the first field of view the lane markings appear.
Entsprechend einer weiteren vorteilhaften Ausgestaltung des Verfahrens werden die Fahrspurinformationen einem Fahrerassistenzsystem zum wenigstens teilautomatisierten Steuern des Fahrzeugs übermittelt.According to a further advantageous embodiment of the method, the lane information is transmitted to a driver assistance system for the at least partially automated control of the vehicle.
Somit lassen sich die Fahrspurinformationen vorteilhaft zur Steuerung des Fahrzeugs nutzen. Insbesondere durch eine Information über die Fahrspurbreite sowie die vom im Fahrzeug befahrene Fahrspur und potenzielle auf weiteren Fahrspuren vorhandene Verkehrsteilnehmer lässt sich das Fahrzeug kollisionsfrei steuern. Dies ist besonders relevant, wenn das Fahrzeug von einem weiteren Fahrzeug überholt wird, beispielsweise einem Einsatzfahrzeug.The lane information can thus be used advantageously to control the vehicle. In particular, information about the lane width as well as the lane used by the vehicle and potential road users in other lanes enables the vehicle to be steered without collision. This is particularly relevant if the vehicle is overtaken by another vehicle, for example an emergency vehicle.
Bevorzugt ist eine Kalibrierung durchführbar, um Fahrspurmarkierungen zuverlässig aus dem zweiten Sichtbereich in den ersten Sichtbereich zu transponieren, wobei zusätzlich zur zweiten Kamera, die in Fahrtrichtung vorausliegende Fahrspurmarkierungen erfasst, die erste Kamera entgegen der Fahrtrichtung zurückliegende Fahrspurmarkierungen erfasst, um das Transponieren der Fahrspurmarkierungen anzupassen.A calibration can preferably be carried out in order to reliably transpose lane markings from the second field of view into the first field of view, wherein in addition to the second camera that detects lane markings ahead in the direction of travel, the first camera detects lane markings that are behind in the direction of travel in order to adapt the transposition of the lane markings.
Das Transponieren der Fahrspurmarkierungen aus dem zweiten in den ersten Sichtbereich erfolgt insbesondere mit Hilfe eines auf einer Recheneinheit ausgeführten Algorithmus unter Ausnutzung der Geometrie-Informationen und der Odometrie-Informationen. Dabei kann es vorkommen, dass beispielsweise aufgrund einer Dejustage einer der Kameraausrichtungen, einer fehlerhaften Geometrie-Informationen und/oder einer fehlerhaften Odometrie-Informationen Sensordaten erzeugt werden, welche nicht der Realität entsprechen. Dies führt dazu, dass die im ersten Sichtbereich eingeblendeten Fahrspurpunkte zur Kennzeichnung der Fahrspurmarkierungen nicht exakt auf den Fahrspurmarkierungen liegen, wodurch Fahrspuren zur Realität versetzt erkannt werden. Mit Hilfe der Kalibrierung kann dieser Versatz ausgeglichen werden. Dies erfordert jedoch, dass optische Bedingungen vorliegen, zu denen auch die erste Kamera die Fahrspurmarkierungen erkennen kann. Erkennt die erste Kamera die im ersten Sichtbereich vorliegenden Fahrspurmarkierungen, können diese mit den aus dem zweiten Sichtbereich in den ersten Sichtbereich transponierten Fahrspurmarkierungen beziehungsweise den Fahrspurpunkten zur Kennzeichnung der Fahrspurmarkierungen zur Deckung gebracht werden. Dabei wird der Algorithmus zum Transponieren der Fahrspurmarkierungen angepasst.The transposition of the lane markings from the second to the first viewing area takes place in particular with the aid of an algorithm executed on a computing unit using the geometry information and the odometry information. It can happen that, for example, due to a misalignment of one of the camera alignments, incorrect geometry information and / or incorrect odometry information, sensor data are generated which do not correspond to reality. This has the result that the lane points shown in the first viewing area for identifying the lane markings are not exactly on the lane markings which means that lanes are recognized offset from reality. This offset can be compensated for with the aid of calibration. However, this requires that optical conditions exist under which the first camera can also recognize the lane markings. If the first camera detects the lane markings present in the first field of view, these can be made to coincide with the lane markings transposed from the second field of view into the first field of view or the lane points for identifying the lane markings. The algorithm for transposing the lane markings is adapted.
Bei einem Fahrzeug mit wenigstens zwei Kameras, einer Recheneinheit und einer Einrichtung zum Erfassen und Verarbeiten von Odometrie-Informationen ist mit Hilfe von den Kameras erzeugter Kamerabilder eine Durchführung des beschriebenen Verfahrens möglich. Dabei liegen Geometrie-Informationen zur Kennzeichnung von Fahrzeugdimensionen, Einbaupositionen der Kameras und/oder von Ausrichtungen der Kameras auf der Recheneinheit vor. Die Odometrie-Informationen können von einem beliebigen Odometrie-System bereitgestellt werden. Beispielsweise können dabei Positions- und/oder Abstandsinformationen von einem GPS, einem Lidar, einem Radar oder Ultraschallsystem erzeugt und daraus Bewegungsinformationen abgeleitet werden. Auch können weitere Fahrzeugsysteme zum Bereitstellen der Odometrie-Informationen genutzt werden, wie das Bestimmen einer Fahrzeuggeschwindigkeit aus einer Raddrehzahl, einer Fortbewegungsrichtung des Fahrzeugs aus einem Lenkwinkel oder Sensordaten, welche von einem ESP, ASR und/oder ABS bereitgestellt werden. Bei dem Fahrzeug kann es sich außerdem um ein beliebiges Fahrzeug wie einen PKW, LKW, eine Baumaschine, eine Landmaschine oder dergleichen handeln.In a vehicle with at least two cameras, a computing unit and a device for capturing and processing odometry information, it is possible to carry out the described method with the aid of camera images generated by the cameras. Geometry information for the identification of vehicle dimensions, installation positions of the cameras and / or orientations of the cameras is available on the computing unit. The odometry information can be provided by any odometry system. For example, position and / or distance information can be generated by a GPS, a lidar, a radar or ultrasound system and movement information derived therefrom. Further vehicle systems can also be used to provide the odometry information, such as determining a vehicle speed from a wheel speed, a direction of movement of the vehicle from a steering angle or sensor data provided by an ESP, ASR and / or ABS. The vehicle can also be any vehicle such as a car, truck, construction machine, agricultural machine or the like.
Bevorzugt ist wenigstens eine der Kameras als Multi-Purpose Camera ausgeführt. Dabei handelt es sich um eine Kamera, welche für verschiedene Fahrzeugfunktionen genutzt wird. Dazu zählen beispielsweise das Bereitstellen von Kamerabildern zum Erleichtern eines Einparkvorgangs, zur Detektion von Verkehrszeichen, und/oder weiteren Verkehrsteilnehmern sowie zum Durchführen eines kamerabasierte Odometrieverfahrens und/oder dergleichen. Somit kann eine Vorrichtung zur Durchführung des Verfahrens besonders einfach und günstig gestaltet werden, indem bereits vorhandene Systemkomponenten genutzt werden.At least one of the cameras is preferably designed as a multi-purpose camera. This is a camera that is used for various vehicle functions. These include, for example, the provision of camera images to facilitate a parking process, to detect traffic signs and / or other road users and to carry out a camera-based odometry method and / or the like. A device for carrying out the method can thus be designed in a particularly simple and inexpensive manner by using existing system components.
Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sowie des Fahrzeugs ergeben sich auch aus dem Ausführungsbeispiel, welches nachfolgend unter Bezugnahme auf die Figuren näher beschrieben wird.Further advantageous configurations of the method according to the invention and of the vehicle also emerge from the exemplary embodiment which is described in more detail below with reference to the figures.
Dabei zeigen:
-
1 eine Draufsicht auf ein Fahrzeug, welches mit einem erfindungsgemäßen Verfahren Fahrspuren erkennt; und -
2 eine Erfassung von Fahrspurmarkierungen aus Sicht einer in Fahrtrichtung und einer entgegen der Fahrtrichtung ausgerichteten Kamera zu zwei unterschiedlichen Zeitpunkten sowie ein Kamerabild welches von einer geblendeten, entgegen der Fahrtrichtung ausgerichteten Kamera erzeugt wurde.
-
1 a plan view of a vehicle which detects lanes using a method according to the invention; and -
2 a detection of lane markings from the point of view of a camera oriented in the direction of travel and a camera oriented against the direction of travel at two different times as well as a camera image which was generated by a dazzled camera oriented against the direction of travel.
Die Fahrbahn umfasst mehrere Fahrspuren
Die zweite Kamera
Das Beispiel in
Hierzu wurden die Fahrspurpunkte
Mit Hilfe eines erfindungsgemäßen Verfahrens lassen sich die Fahrspurpunkte
With the aid of a method according to the invention, the lane points can be determined
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102017116213 A1 [0004]DE 102017116213 A1 [0004]
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020003924.3A DE102020003924A1 (en) | 2020-06-30 | 2020-06-30 | Method for camera-based recognition of at least one lane and a vehicle using the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020003924.3A DE102020003924A1 (en) | 2020-06-30 | 2020-06-30 | Method for camera-based recognition of at least one lane and a vehicle using the method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020003924A1 true DE102020003924A1 (en) | 2020-09-17 |
Family
ID=72289427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020003924.3A Withdrawn DE102020003924A1 (en) | 2020-06-30 | 2020-06-30 | Method for camera-based recognition of at least one lane and a vehicle using the method |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020003924A1 (en) |
-
2020
- 2020-06-30 DE DE102020003924.3A patent/DE102020003924A1/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3160813B1 (en) | Method for producing a model of the surroundings of a vehicle | |
EP2291836B1 (en) | Driver assistance system for preventing a vehicle colliding with pedestrians | |
DE10254806B4 (en) | Information processing method | |
EP1904340B1 (en) | Driver assist method and device | |
DE102016213673A1 (en) | Camera device for a vehicle | |
DE102011078288B4 (en) | Motor vehicle with a warning device for the driver | |
DE102005054972A1 (en) | Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible | |
EP3488606A1 (en) | Camera device and method for detecting a surrounding area of a driver's own vehicle | |
WO2014127777A2 (en) | Method and device for determining a traffic lane state | |
WO2014161691A1 (en) | Method and apparatus for guiding a vehicle in the surroundings of an object | |
EP2116958B1 (en) | Method and device for calculating the drive path in the area in front of a vehicle | |
EP3488607B1 (en) | Camera device for recording an environmental area of a vehicle, and method for providing a driver assistance function | |
DE102008020007A1 (en) | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients | |
DE102006050214A1 (en) | A method of assisting a driver when driving with a vehicle | |
DE102019216348A1 (en) | VEHICLE SUPPORT SYSTEM | |
DE102017223439B4 (en) | Warning device against dangerous situations for a motor vehicle | |
DE102017223431A1 (en) | A method for assisting a driver of a motor vehicle in an overtaking operation; Motor vehicle; as well as system | |
EP1028387B1 (en) | Device for recognizing the environment, in particuliar for recognising traffic road signs | |
WO2003106219A1 (en) | Method and device for controlling the diffusion of light in a motor vehicle | |
DE102011055441A1 (en) | Method for determining spacing between preceding and forthcoming motor cars by using mono camera in e.g. adaptive cruise control system, involves determining spacing between cars based on information about license plate number | |
DE102007007283A1 (en) | Vehicle for recording surroundings makes information on surroundings available to a vehicle's control unit so as to change a vehicle's performance | |
DE102020003924A1 (en) | Method for camera-based recognition of at least one lane and a vehicle using the method | |
DE102017006835A1 (en) | Control system, method and motor vehicle for calculating a motor vehicle trajectory | |
EP1962245B1 (en) | Method and device for detecting the movement state of objects | |
DE102011014455A1 (en) | Vehicle operating method, involves automatically adjusting light distribution of illumination device of vehicle to predetermined speed during detecting road region, and detecting information over presence of road region on track portion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |