DE102019008316A1 - Verfahren zur Objekterkennung und Abstandsbestimmung - Google Patents

Verfahren zur Objekterkennung und Abstandsbestimmung Download PDF

Info

Publication number
DE102019008316A1
DE102019008316A1 DE102019008316.4A DE102019008316A DE102019008316A1 DE 102019008316 A1 DE102019008316 A1 DE 102019008316A1 DE 102019008316 A DE102019008316 A DE 102019008316A DE 102019008316 A1 DE102019008316 A1 DE 102019008316A1
Authority
DE
Germany
Prior art keywords
vehicle
image
distance
driving line
protruding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019008316.4A
Other languages
English (en)
Inventor
Klaus Hermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102019008316.4A priority Critical patent/DE102019008316A1/de
Publication of DE102019008316A1 publication Critical patent/DE102019008316A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

Die Erfindung betrifft ein Verfahren zur Objekterkennung und Abstandsbestimmung in einem Fahrzeug (6, 6') mittels einer Monokamera (5,5'), wobei Objekte mittels Bildauswertung und Klassifikation erkannt werden. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass mittels der Monokamera (5, 5') eine erste Bildaufnahme angefertigt wird, wonach das Fahrzeug (6, 6') auf eine parallel zur bisherigen Fahrlinie (7) querversetzte Fahrlinie (7') gesteuert wird, wonach eine zweite Bildaufnahme in einem neuen Betrachtungswinkel angefertigt wird, und wonach eine Stereobildauswertung der beiden Bildaufnahmen erfolgt, um den Abstand zu dem Objekt zu bestimmen.

Description

  • Die Erfindung betrifft ein Verfahren zur Objekterkennung und Abstandsbestimmung in einem Fahrzeug mittels einer Monokamera, nach der im Oberbegriff von Anspruch 1 näher definierten Art.
  • Aus dem allgemeinen Stand der Technik sind Stereokameras bekannt, mit welchen es möglich ist, ein räumliches Bild einer erfassten Umgebung zu erzeugen und anhand von Analyseeinrichtungen näher auszuwerten. Dabei umfassen die Stereokameras im Wesentlichen zwei Kameras, die in einem Abstand in einer horizontalen Ebene quer zur ihrer optischen Achse zueinander angeordnet sind. Dadurch können räumliche Bilder erzeugt werden, indem die Bilder der beiden versetzt zueinander angeordneten Kameras entsprechend überlagert werden. Hierdurch ist es möglich, die Abstände von erfassten Objekten zu der Kamera sehr genau zu bestimmen. Mittels einer Monokamera ist dies nicht möglich und erfordert weitere Sensoren.
  • Der Nachteil der Stereokamera ist dabei insbesondere der vergleichsweise hohe Preis aufgrund der umfangreichen Technik. Außerdem müssen die beiden Kameras einer Stereokamera einzeln aufeinander abgestimmt sein, um exakte Resultate zu erzielen. Die Abstimmung und insbesondere die Justage der beiden Kameras in einem Fahrzeug sind dabei zeitaufwändig und fehleranfällig. Muss beispielsweise die Scheibe ausgetauscht werden oder dergleichen, ist eine erneute Kalibrierung der beiden Stereokameras aufeinander notwendig.
  • Aus diesem Grund ist es aus dem allgemeinen Stand der Technik bekannt, über eine Monokamera Stereobilder zu erzeugen. In diesem Zusammenhang kann auf die DE 10 2018 004 562 A1 des Erfinders hingewiesen werden.
  • Zum weiteren Stand der Technik hinsichtlich der Auswertung von Stereobildern kann außerdem auf die DE 196 36 028 C1 hingewiesen werden.
  • Aufgrund der Nachteile einer Stereokamera werden in der Praxis häufig Monokameras eingesetzt. Für viele Aufgaben sind diese, insbesondere wenn sie mit anderen Sensoren zu einer Sensorfusion kombiniert werden, völlig ausreichend. Häufig reicht es dabei auch aus, über Monokameras Objekte zu erkennen und ihre Entfernung durch Methoden wie beispielsweise das sogenannte Structure by Motion entsprechend abzuschätzen. Insbesondere die Entfernung zu einem nach hinten aus einem vorausfahrenden Fahrzeug überstehender Ladung zu dem eigenen Fahrzeug ist dabei aber kaum möglich oder wenn dann nur mit extremer Ungenauigkeit. Dies stellt vor allem bei hoch- oder vollautomatisierten fahrenden Fahrzeugen ein erhebliches Sicherheitsrisiko dar.
  • Aus diesem Grund ist es die Aufgabe der hier vorliegenden Erfindung, mit einem einfachen und kostengünstigen Verfahren eine Objekterkennung und Abstandsbestimmung mittels einer Monokamera zu realisieren, welche diesen Sicherheitsnachteil aufhebt und eine hochgenaue Abstandsbestimmung von Objekten, insbesondere von überstehender Ladung vorausfahrender Fahrzeuge, zu schaffen.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen im Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den hiervon abhängigen Unteransprüchen.
  • Bei dem erfindungsgemäßen Verfahren ist es so, dass das Fahrzeug mit einer einfachen und relativ kostengünstigen Monokamera ausgestattet ist. In an sich bekannter Art und Weise werden Objekte über eine Bildauswertung und Klassifikation erkannt. Erfindungsgemäß ist es nun so, dass mittels der Monokamera eine erste Bildaufnahme angefertigt wird. Danach wird das Fahrzeug, welches sich ganz oder teilweise in einem autonomen Fahrbetrieb befindet, von seiner bisherigen Fahrlinie auf eine parallel zur bisherigen Fahrlinie quer versetzte Fahrlinie gesteuert, wonach eine zweite Bildaufnahme in einem neuen Betrachtungswinkel angefertigt wird. Danach lassen sich aus den beiden Bildaufnahmen mit unterschiedlichem Betrachtungswinkel durch geeignete Überlagerung Stereobilder generieren, welche über eine Stereobildauswertung dazu genutzt werden können, den Abstand zu dem Objekt sehr genau zu bestimmen. Die Genauigkeit reicht dabei für einen sicheren Betrieb eines hoch- oder vollautomatisiert fahrenden Fahrzeugs leicht aus. Anders als bei den Verfahren im Stand der Technik kann auf aufwändige Stereokameras oder zusätzlich zur Monokamera vorhandene Sensoren bei dem erfindungsgemäßen Verfahren verzichtet werden.
  • Das erfindungsgemäße Verfahren erlaubt so eine erhöhte Fahrsicherheit beim hoch- und/oder vollautomatisierten Fahren und kann ein solches hoch- und/oder vollautomatisiertes Fahren trotz der entsprechenden Sicherheit ohne eine teure Stereokamera realisieren. Es erlaubt letztlich also eine Einsparung von Kosten, ohne Nachteile bei der Sicherheit.
  • Das erfindungsgemäße Verfahren lässt sich prinzipiell für jede Art von Objekten einsetzen. Es ist jedoch insbesondere dafür geeignet, überstehende Ladung vorausfahrender Fahrzeuge zu erkennen, zu klassifizieren und deren Abstand zu der Kamera und damit zu dem eigenen Fahrzeug zuverlässig zu ermitteln. Insbesondere für diese ansonsten kaum zu bewältigende Aufgabe eignet sich das erfindungsgemäße Verfahren besonders gut.
  • Die Objekte können dabei gemäß einer sehr günstigen Ausgestaltung des erfindungsgemäßen Verfahrens über trainierte Klassifikatoren und/oder neuronale Netze identifiziert werden. Auch dies ist prinzipiell soweit aus dem Stand der Technik bekannt, und kann in Verbindung mit dem erfindungsgemäßen Verfahren ideal genutzt werden. Dabei lassen sich die erkannten Objekte gemäß einer vorteilhaften Weiterbildung des Verfahrens entsprechend plausibilisieren. Für eine solche Plausibilisierung kann gemäß einer vorteilhaften Weiterbildung dieser Idee beispielsweise ein objekttypisches Warnsymbol oder anderes Kennzeichen, z.B. ein Warnschild oder ein rotes Fähnchen, welches in vielen Ländern bei überstehender Ladung Pflicht ist, erkannt werden. Wird ein solches zusätzlich zu einem als überstehende Ladung klassifizierten Objekt erkannt, kann sehr einfach eine zuverlässige Plausibilisierung erfolgen.
  • Der Querversatz der Fahrlinien kann dabei in einer Größenordnung von ca. 30 cm liegen. Ein solcher Querversatz in der Größenordnung von 30 cm lässt sich typischerweise in jeder Fahrspur einfach und effizient umsetzen, ohne dass die Fahrspur verlassen werden muss, und ohne dass damit ein Sicherheitsproblem einhergeht, da ein Raum von 30 cm zum Versetzen eines Fahrzeugs, insbesondere bei der Anwendung in einem Personenkraftwagen, typischerweise in jeder Fahrspur immer vorliegt.
  • Das Fahrzeug kann dabei auf der neuen Fahrlinie über eine entsprechende Fahrsensorik und ein daraus abgeleitetes Bewegungsmodell parallel zur bisherigen Fahrlinie, während welcher die erste Bildaufnahme angefertigt wurde, gehalten werden, während die zweite Bildaufnahme erfolgt. Dies ist für die Qualität der später überlagerten Bildaufnahmen entscheidend. Ein exakt paralleler Versatz der Fahrlinie lässt sich mit Hilfe von Gierraten, Sensoren und dGPS-Sensoren und dergleichen jedoch einfach und zuverlässig erreichen, insbesondere da ein relativ kurzer Zeitraum für die entsprechende Anfertigung der Bildaufnahme ausreicht. Auch ist es möglich, aus mehreren Bildaufnahmen diejenigen heraus zu filtern, während welchen die Bedingungen exakt vorlagen.
  • Ergänzend zum Abstand der überstehenden Ladung kann gemäß einer sehr vorteilhaften Weiterbildung der Idee die Höhe des Endpunkts der überstehenden Ladung über der Fahrbahn bestimmt werden. Hierdurch kann festgestellt werden, ob die überstehende Ladung das eigene Fahrzeug gegebenenfalls überragt, sodass diese bei der Längsregelstrategie des eigenen Fahrzeugs ignoriert werden kann, weil das eigene Fahrzeug im Notfall unter die überstehende Ladung passen würde, sodass eine Kollision zwischen dem eigenen Fahrzeug und der überstehenden Ladung quasi ausgeschlossen ist.
  • Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich auch aus dem Ausführungsbeispiel, welches nachfolgend unter Bezugnahme auf die Figur näher dargestellt ist.
  • Die einzige beigefügte Figur zeigt dabei ein Szenario zur Erläuterung des erfindungsgemäßen Verfahrens im Blick von oben.
  • In der Darstellung der Figur ist eine mit 1 bezeichnete Fahrbahn teilweise angedeutet. Auf einer Fahrspur 2 der Fahrbahn 1 bewegt sich dabei im Bild oben und in Fahrtrichtung F vorne ein mit 3 bezeichnetes Fahrzeug, beispielsweise ein Lastkraftwagen, dessen Heck angedeutet ist. Aus dem Heck dieses Fahrzeugs 3 steht mit 4 bezeichnete Ladung über. Solche von dem Fahrzeug 3 aus nach hinten überstehende Ladung 4 lässt sich über eine Monokamera 5, wie sie mit einem mit 6 bezeichneten Fahrzeug zur Erfassung der Umgebung verbaut ist, hinsichtlich ihres Abstandes zu dem Fahrzeug 6 nur außerordentlich schwer oder gar nicht einschätzen. Dies stellt bei herkömmlichen Fahrzeugen 6 mit Monokamera 5 ein erhebliches Sicherheitsrisiko dar, insbesondere wenn dieses Fahrzeug 6 hoch- und/oder vollautomatisiert fährt.
  • Um dieser Problematik abzuhelfen ist es nun so, dass mit Hilfe der Monokamera 5 das Heck des Fahrzeugs 3 entsprechend erfasst wird. Die überstehende Ladung 4 wird dabei mit Hilfe einer Bildauswertung der Bilder dieser Monokamera 5 klassifiziert und als solche erkannt. Dafür lassen sich beispielsweise trainierte Klassifikatoren oder neuronale Netze, wie sie bei der Bildverarbeitung von Umgebungsbildern von Fahrzeugen allgemein bekannt und üblich sind, einsetzen. Zur Plausibilisierung kann mit derselben Methode erkannt werden, ob die überstehende Ladung 4 beispielsweise mit einem roten Fähnchen, einem Warnschild oder dergleichen gekennzeichnet ist, um so die Zuverlässigkeit der Objekterkennung bezüglich der überstehenden Ladung 4 weiter zu steigern.
  • Das Fahrzeug 6 bewegt sich auf einer durchgezogenen mit 7 bezeichneten Fahrlinie innerhalb der Fahrspur 2 der Fahrbahn 1 in Fahrtrichtung F vorwärts und folgt dem Fahrzeug 3 beispielsweise in einem konstanten Abstand. Nachdem nun über die Bildverarbeitung und die Monokamera 5 überstehende Ladung 4 als Objekt erkannt worden ist, wird das insbesondere hoch- oder vollautomatisiert fahrende Fahrzeug 6 quer versetzt, also auf eine parallele Fahrlinie gelenkt. Diese Fahrlinie ist mit 7' bezeichnet, das querversetzte Fahrzeug ist mit 6' bezeichnet und ebenso wie die Fahrlinie 7' gestrichelt angedeutet. Auch die Monokamera 5 wird damit quer versetzt, beispielsweise um einen Abstand von ca. 30 cm, sodass das Fahrzeug 6, 6' während des Querversatzes die Fahrspur 2 nicht verlässt. Die in ihrer versetzten Position gestrichelt dargestellte Monokamera ist entsprechend mit 5' bezeichnet. Der leichte Querversatz ermöglicht es nun, dass über die Monokamera 5 und 5' jeweils Bildaufnahmen mit unterschiedlichen Betrachtungswinkeln auf die überstehende Ladung 4 angefertigt werden können. Dies ist auf der ursprünglichen Fahrspur 7 mit strichpunktierter Linie und auf der versetzten Fahrspur 7' mit strichzweipunktierter Linie entsprechend angedeutet.
  • Dabei sollte das Fahrzeug 6 bzw. 6' in der versetzten Fahrlinie 7' exakt parallel zur ursprünglichen Fahrlinie 7 fahren, was mit Hilfe der Gierraten- und dGPS-Sensorik und des daraus abgeleiteten Bewegungsmodells sichergestellt wird. Die beiden aus den unterschiedlichen Blickwinkeln angefertigten Bildaufnahmen erlauben nun die Ausnutzung des Stereoeffekts, um den Abstand eines in Richtung Fahrzeugs 6, 6' liegenden Endpunkts 8 der überstehenden Ladung 4 leicht zu erkennen, sodass der Abstand zwischen dem eigenen Fahrzeug 6, 6' und dem Endpunkt 8 der überstehenden Ladung 4 sehr zuverlässig ermittelt werden kann. Dieser lässt sich dann in die Längsregelstrategie des Fahrzeugs 6, 6' entsprechend übernehmen, um ein sicheres hoch- oder vollautomatisiertes Fahren des Fahrzeugs 6, 6' zu ermöglichen.
  • Ferner kann über das Verfahren die Höhe des Endpunkts 8 der überstehenden Ladung 4 über der Fahrbahn 1 gemessen werden. Wird in diesem Zusammenhang erkannt, dass die überstehende Ladung 4 das eigene Fahrzeug 6, 6' überragt, dass dieses also unter die überstehende Ladung 4 passen würde, dann kann die überstehende Ladung 4 bei der Längsregelstrategie des Fahrzeugs 6, 6' entsprechend ignoriert werden.
  • Ohne das eine teure Stereokamera notwendig ist, lässt sich so die Genauigkeit der Erkennung von Objekten und insbesondere die Genauigkeit der Abstandsbestimmung steigern und damit die Fahrsicherheit erhöhen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018004562 A1 [0004]
    • DE 19636028 C1 [0005]

Claims (8)

  1. Verfahren zur Objekterkennung und Abstandsbestimmung in einem Fahrzeug (6, 6') mittels einer Monokamera (5,5'), wobei Objekte mittels Bildauswertung und Klassifikation erkannt werden, dadurch gekennzeichnet, dass mittels der Monokamera (5, 5') eine erste Bildaufnahme angefertigt wird, wonach das Fahrzeug (6, 6') auf eine parallel zur bisherigen Fahrlinie (7) querversetzte Fahrlinie (7') gesteuert wird, wonach eine zweite Bildaufnahme in einem neuen Betrachtungswinkel angefertigt wird, und wonach eine Stereobildauswertung der beiden Bildaufnahmen erfolgt, um den Abstand zu dem Objekt zu bestimmen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Abstandsbestimmung für überstehende Ladung (4) eines vorausfahrenden Fahrzeugs (3) als Objekt erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Objekte über trainierte Klassifikatoren und/oder neuronale Netze erkannt werden.
  4. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die erkannten Objekte plausibilisiert werden.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Plausibilisierung anhand objekttypischer Warnsymbole oder Kennzeichen erfolgt.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass der Querversatz in einer Größenordnung von 20 bis 50 cm, vorzugsweise ca. 30 cm, liegt.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das Fahrzeug (6, 6') auf der neuen Fahrlinie (7') über ein aus einer Fahrsensorik abgeleitetes Bewegungsmodell parallel zur bisherigen Fahrlinie (7), während welcher die erste Bildaufnahme erfolgt war, gehalten wird, während die zweite Bildaufnahme erfolgt.
  8. Verfahren nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass ergänzend zum Abstand der überstehenden Ladung (4) die Höhe eines Endpunkts (8) der überstehenden Ladung (4) über der Oberfläche der Fahrbahn (1) bestimmt wird.
DE102019008316.4A 2019-11-29 2019-11-29 Verfahren zur Objekterkennung und Abstandsbestimmung Withdrawn DE102019008316A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019008316.4A DE102019008316A1 (de) 2019-11-29 2019-11-29 Verfahren zur Objekterkennung und Abstandsbestimmung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019008316.4A DE102019008316A1 (de) 2019-11-29 2019-11-29 Verfahren zur Objekterkennung und Abstandsbestimmung

Publications (1)

Publication Number Publication Date
DE102019008316A1 true DE102019008316A1 (de) 2020-08-13

Family

ID=71738754

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019008316.4A Withdrawn DE102019008316A1 (de) 2019-11-29 2019-11-29 Verfahren zur Objekterkennung und Abstandsbestimmung

Country Status (1)

Country Link
DE (1) DE102019008316A1 (de)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
DE102022121257A1 (de) 2022-08-23 2024-02-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Erkennung eines Fahrzeugs mit einer überhängenden Ladung
US11983630B2 (en) 2023-01-19 2024-05-14 Tesla, Inc. Neural networks for embedded devices

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11797304B2 (en) 2018-02-01 2023-10-24 Tesla, Inc. Instruction set architecture for a vector computational unit
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908171B2 (en) 2018-12-04 2024-02-20 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
DE102022121257A1 (de) 2022-08-23 2024-02-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Erkennung eines Fahrzeugs mit einer überhängenden Ladung
US11983630B2 (en) 2023-01-19 2024-05-14 Tesla, Inc. Neural networks for embedded devices

Similar Documents

Publication Publication Date Title
DE102019008316A1 (de) Verfahren zur Objekterkennung und Abstandsbestimmung
EP2272691B1 (de) Verfahren zum Bestimmen einer Position eines an einem Fahrzeug angehängten Anhängers relativ zum Fahrzeug sowie Fahrerassistenzsystem für ein Farhzeug
DE102012022336A1 (de) Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug
EP3356203B1 (de) Verfahren zum bestimmen einer parkfläche zum parken eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102009028451A1 (de) Kollisionsüberwachung für ein Kraftfahrzeug
EP3665502B1 (de) Verfahren zum überwachen eines umgebungsbereiches eines kraftfahrzeugs, sensorsteuergerät, fahrerassistenzsystem sowie kraftfahrzeug
DE102016117712A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016102065A1 (de) Verfahren zum Unterstützen einer autonomen Fahrt eines Kraftfahrzeugs, Steuereinrichtung sowie Parkassistenzsystem
DE102019217428A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem und Fahrzeug
EP3477249A1 (de) Verfahren zur formerkennung eines objekts in einem aussenbereich eines kraftfahrzeugs sowie kraftfahrzeug
DE102010049216A1 (de) Verfahren zum Betrieb einer an einem Fahrzeug angeordneten Kamera
DE102018005118A1 (de) Verfahren zum Bestimmen eines Knickwinkels
DE102012024879A1 (de) Fahrerassistenzsystem zum zumindest partiellen Abbremsen eines Kraftfahrzeugs, Kraftfahrzeug und entsprechendes Verfahren
DE102017007958A1 (de) Fahrerassistenzsystem für ein Fahrzeug und Fahrzeug mit einem solchen Fahrerassistenzsystem
DE102013104335A1 (de) Verfahren zur Auslösung einer Fahrerassistenzfunktion bei einer Detektion eines Bremslichtes mittels einer Kamera
EP3032517A1 (de) Vorrichtung und verfahren zur unterstützung eines fahrers eines fahrzeugs, insbesondere eines nutzfahrzeugs
DE102018119832A1 (de) Verfahren und Vorrichtung zum Betrieb eines autonom fahrenden Fahrzeuges
DE102020003100A1 (de) Verfahren zu einer kamerabasierten Erkennung von Lichtsignalanlagen
DE102012016980A1 (de) Verfahren zum Positionieren eines Fahrzeugs
DE102017100669A1 (de) Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016003116A1 (de) Verfahren zum Betreiben eines Fahrwerks eines Kraftfahrzeugs
DE102020103597A1 (de) Verfahren und System zum Ermitteln einer Ausrichtung eines Anhängers gegenüber einem Zugfahrzeug
DE102018000276A1 (de) Verfahren zum Unterscheiden von Objekten
DE102019008079A1 (de) Verfahren zum Erkennen mindestens eines Objekts in einem Fahrbereich eines Fahrzeugs, Vorrichtung eingerichtet zum Druchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee