DE102019008316A1 - Verfahren zur Objekterkennung und Abstandsbestimmung - Google Patents
Verfahren zur Objekterkennung und Abstandsbestimmung Download PDFInfo
- Publication number
- DE102019008316A1 DE102019008316A1 DE102019008316.4A DE102019008316A DE102019008316A1 DE 102019008316 A1 DE102019008316 A1 DE 102019008316A1 DE 102019008316 A DE102019008316 A DE 102019008316A DE 102019008316 A1 DE102019008316 A1 DE 102019008316A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- image
- distance
- driving line
- protruding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000011156 evaluation Methods 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000011217 control strategy Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Abstract
Die Erfindung betrifft ein Verfahren zur Objekterkennung und Abstandsbestimmung in einem Fahrzeug (6, 6') mittels einer Monokamera (5,5'), wobei Objekte mittels Bildauswertung und Klassifikation erkannt werden. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass mittels der Monokamera (5, 5') eine erste Bildaufnahme angefertigt wird, wonach das Fahrzeug (6, 6') auf eine parallel zur bisherigen Fahrlinie (7) querversetzte Fahrlinie (7') gesteuert wird, wonach eine zweite Bildaufnahme in einem neuen Betrachtungswinkel angefertigt wird, und wonach eine Stereobildauswertung der beiden Bildaufnahmen erfolgt, um den Abstand zu dem Objekt zu bestimmen.
Description
- Die Erfindung betrifft ein Verfahren zur Objekterkennung und Abstandsbestimmung in einem Fahrzeug mittels einer Monokamera, nach der im Oberbegriff von Anspruch 1 näher definierten Art.
- Aus dem allgemeinen Stand der Technik sind Stereokameras bekannt, mit welchen es möglich ist, ein räumliches Bild einer erfassten Umgebung zu erzeugen und anhand von Analyseeinrichtungen näher auszuwerten. Dabei umfassen die Stereokameras im Wesentlichen zwei Kameras, die in einem Abstand in einer horizontalen Ebene quer zur ihrer optischen Achse zueinander angeordnet sind. Dadurch können räumliche Bilder erzeugt werden, indem die Bilder der beiden versetzt zueinander angeordneten Kameras entsprechend überlagert werden. Hierdurch ist es möglich, die Abstände von erfassten Objekten zu der Kamera sehr genau zu bestimmen. Mittels einer Monokamera ist dies nicht möglich und erfordert weitere Sensoren.
- Der Nachteil der Stereokamera ist dabei insbesondere der vergleichsweise hohe Preis aufgrund der umfangreichen Technik. Außerdem müssen die beiden Kameras einer Stereokamera einzeln aufeinander abgestimmt sein, um exakte Resultate zu erzielen. Die Abstimmung und insbesondere die Justage der beiden Kameras in einem Fahrzeug sind dabei zeitaufwändig und fehleranfällig. Muss beispielsweise die Scheibe ausgetauscht werden oder dergleichen, ist eine erneute Kalibrierung der beiden Stereokameras aufeinander notwendig.
- Aus diesem Grund ist es aus dem allgemeinen Stand der Technik bekannt, über eine Monokamera Stereobilder zu erzeugen. In diesem Zusammenhang kann auf die
DE 10 2018 004 562 A1 des Erfinders hingewiesen werden. - Zum weiteren Stand der Technik hinsichtlich der Auswertung von Stereobildern kann außerdem auf die
DE 196 36 028 C1 hingewiesen werden. - Aufgrund der Nachteile einer Stereokamera werden in der Praxis häufig Monokameras eingesetzt. Für viele Aufgaben sind diese, insbesondere wenn sie mit anderen Sensoren zu einer Sensorfusion kombiniert werden, völlig ausreichend. Häufig reicht es dabei auch aus, über Monokameras Objekte zu erkennen und ihre Entfernung durch Methoden wie beispielsweise das sogenannte Structure by Motion entsprechend abzuschätzen. Insbesondere die Entfernung zu einem nach hinten aus einem vorausfahrenden Fahrzeug überstehender Ladung zu dem eigenen Fahrzeug ist dabei aber kaum möglich oder wenn dann nur mit extremer Ungenauigkeit. Dies stellt vor allem bei hoch- oder vollautomatisierten fahrenden Fahrzeugen ein erhebliches Sicherheitsrisiko dar.
- Aus diesem Grund ist es die Aufgabe der hier vorliegenden Erfindung, mit einem einfachen und kostengünstigen Verfahren eine Objekterkennung und Abstandsbestimmung mittels einer Monokamera zu realisieren, welche diesen Sicherheitsnachteil aufhebt und eine hochgenaue Abstandsbestimmung von Objekten, insbesondere von überstehender Ladung vorausfahrender Fahrzeuge, zu schaffen.
- Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen im Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den hiervon abhängigen Unteransprüchen.
- Bei dem erfindungsgemäßen Verfahren ist es so, dass das Fahrzeug mit einer einfachen und relativ kostengünstigen Monokamera ausgestattet ist. In an sich bekannter Art und Weise werden Objekte über eine Bildauswertung und Klassifikation erkannt. Erfindungsgemäß ist es nun so, dass mittels der Monokamera eine erste Bildaufnahme angefertigt wird. Danach wird das Fahrzeug, welches sich ganz oder teilweise in einem autonomen Fahrbetrieb befindet, von seiner bisherigen Fahrlinie auf eine parallel zur bisherigen Fahrlinie quer versetzte Fahrlinie gesteuert, wonach eine zweite Bildaufnahme in einem neuen Betrachtungswinkel angefertigt wird. Danach lassen sich aus den beiden Bildaufnahmen mit unterschiedlichem Betrachtungswinkel durch geeignete Überlagerung Stereobilder generieren, welche über eine Stereobildauswertung dazu genutzt werden können, den Abstand zu dem Objekt sehr genau zu bestimmen. Die Genauigkeit reicht dabei für einen sicheren Betrieb eines hoch- oder vollautomatisiert fahrenden Fahrzeugs leicht aus. Anders als bei den Verfahren im Stand der Technik kann auf aufwändige Stereokameras oder zusätzlich zur Monokamera vorhandene Sensoren bei dem erfindungsgemäßen Verfahren verzichtet werden.
- Das erfindungsgemäße Verfahren erlaubt so eine erhöhte Fahrsicherheit beim hoch- und/oder vollautomatisierten Fahren und kann ein solches hoch- und/oder vollautomatisiertes Fahren trotz der entsprechenden Sicherheit ohne eine teure Stereokamera realisieren. Es erlaubt letztlich also eine Einsparung von Kosten, ohne Nachteile bei der Sicherheit.
- Das erfindungsgemäße Verfahren lässt sich prinzipiell für jede Art von Objekten einsetzen. Es ist jedoch insbesondere dafür geeignet, überstehende Ladung vorausfahrender Fahrzeuge zu erkennen, zu klassifizieren und deren Abstand zu der Kamera und damit zu dem eigenen Fahrzeug zuverlässig zu ermitteln. Insbesondere für diese ansonsten kaum zu bewältigende Aufgabe eignet sich das erfindungsgemäße Verfahren besonders gut.
- Die Objekte können dabei gemäß einer sehr günstigen Ausgestaltung des erfindungsgemäßen Verfahrens über trainierte Klassifikatoren und/oder neuronale Netze identifiziert werden. Auch dies ist prinzipiell soweit aus dem Stand der Technik bekannt, und kann in Verbindung mit dem erfindungsgemäßen Verfahren ideal genutzt werden. Dabei lassen sich die erkannten Objekte gemäß einer vorteilhaften Weiterbildung des Verfahrens entsprechend plausibilisieren. Für eine solche Plausibilisierung kann gemäß einer vorteilhaften Weiterbildung dieser Idee beispielsweise ein objekttypisches Warnsymbol oder anderes Kennzeichen, z.B. ein Warnschild oder ein rotes Fähnchen, welches in vielen Ländern bei überstehender Ladung Pflicht ist, erkannt werden. Wird ein solches zusätzlich zu einem als überstehende Ladung klassifizierten Objekt erkannt, kann sehr einfach eine zuverlässige Plausibilisierung erfolgen.
- Der Querversatz der Fahrlinien kann dabei in einer Größenordnung von ca. 30 cm liegen. Ein solcher Querversatz in der Größenordnung von 30 cm lässt sich typischerweise in jeder Fahrspur einfach und effizient umsetzen, ohne dass die Fahrspur verlassen werden muss, und ohne dass damit ein Sicherheitsproblem einhergeht, da ein Raum von 30 cm zum Versetzen eines Fahrzeugs, insbesondere bei der Anwendung in einem Personenkraftwagen, typischerweise in jeder Fahrspur immer vorliegt.
- Das Fahrzeug kann dabei auf der neuen Fahrlinie über eine entsprechende Fahrsensorik und ein daraus abgeleitetes Bewegungsmodell parallel zur bisherigen Fahrlinie, während welcher die erste Bildaufnahme angefertigt wurde, gehalten werden, während die zweite Bildaufnahme erfolgt. Dies ist für die Qualität der später überlagerten Bildaufnahmen entscheidend. Ein exakt paralleler Versatz der Fahrlinie lässt sich mit Hilfe von Gierraten, Sensoren und dGPS-Sensoren und dergleichen jedoch einfach und zuverlässig erreichen, insbesondere da ein relativ kurzer Zeitraum für die entsprechende Anfertigung der Bildaufnahme ausreicht. Auch ist es möglich, aus mehreren Bildaufnahmen diejenigen heraus zu filtern, während welchen die Bedingungen exakt vorlagen.
- Ergänzend zum Abstand der überstehenden Ladung kann gemäß einer sehr vorteilhaften Weiterbildung der Idee die Höhe des Endpunkts der überstehenden Ladung über der Fahrbahn bestimmt werden. Hierdurch kann festgestellt werden, ob die überstehende Ladung das eigene Fahrzeug gegebenenfalls überragt, sodass diese bei der Längsregelstrategie des eigenen Fahrzeugs ignoriert werden kann, weil das eigene Fahrzeug im Notfall unter die überstehende Ladung passen würde, sodass eine Kollision zwischen dem eigenen Fahrzeug und der überstehenden Ladung quasi ausgeschlossen ist.
- Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich auch aus dem Ausführungsbeispiel, welches nachfolgend unter Bezugnahme auf die Figur näher dargestellt ist.
- Die einzige beigefügte Figur zeigt dabei ein Szenario zur Erläuterung des erfindungsgemäßen Verfahrens im Blick von oben.
- In der Darstellung der Figur ist eine mit 1 bezeichnete Fahrbahn teilweise angedeutet. Auf einer Fahrspur
2 der Fahrbahn1 bewegt sich dabei im Bild oben und in FahrtrichtungF vorne ein mit 3 bezeichnetes Fahrzeug, beispielsweise ein Lastkraftwagen, dessen Heck angedeutet ist. Aus dem Heck dieses Fahrzeugs3 steht mit 4 bezeichnete Ladung über. Solche von dem Fahrzeug3 aus nach hinten überstehende Ladung4 lässt sich über eine Monokamera5 , wie sie mit einem mit 6 bezeichneten Fahrzeug zur Erfassung der Umgebung verbaut ist, hinsichtlich ihres Abstandes zu dem Fahrzeug6 nur außerordentlich schwer oder gar nicht einschätzen. Dies stellt bei herkömmlichen Fahrzeugen6 mit Monokamera5 ein erhebliches Sicherheitsrisiko dar, insbesondere wenn dieses Fahrzeug6 hoch- und/oder vollautomatisiert fährt. - Um dieser Problematik abzuhelfen ist es nun so, dass mit Hilfe der Monokamera
5 das Heck des Fahrzeugs3 entsprechend erfasst wird. Die überstehende Ladung4 wird dabei mit Hilfe einer Bildauswertung der Bilder dieser Monokamera5 klassifiziert und als solche erkannt. Dafür lassen sich beispielsweise trainierte Klassifikatoren oder neuronale Netze, wie sie bei der Bildverarbeitung von Umgebungsbildern von Fahrzeugen allgemein bekannt und üblich sind, einsetzen. Zur Plausibilisierung kann mit derselben Methode erkannt werden, ob die überstehende Ladung4 beispielsweise mit einem roten Fähnchen, einem Warnschild oder dergleichen gekennzeichnet ist, um so die Zuverlässigkeit der Objekterkennung bezüglich der überstehenden Ladung4 weiter zu steigern. - Das Fahrzeug
6 bewegt sich auf einer durchgezogenen mit 7 bezeichneten Fahrlinie innerhalb der Fahrspur2 der Fahrbahn1 in FahrtrichtungF vorwärts und folgt dem Fahrzeug3 beispielsweise in einem konstanten Abstand. Nachdem nun über die Bildverarbeitung und die Monokamera5 überstehende Ladung4 als Objekt erkannt worden ist, wird das insbesondere hoch- oder vollautomatisiert fahrende Fahrzeug6 quer versetzt, also auf eine parallele Fahrlinie gelenkt. Diese Fahrlinie ist mit 7' bezeichnet, das querversetzte Fahrzeug ist mit6' bezeichnet und ebenso wie die Fahrlinie7' gestrichelt angedeutet. Auch die Monokamera5 wird damit quer versetzt, beispielsweise um einen Abstand von ca. 30 cm, sodass das Fahrzeug6 ,6' während des Querversatzes die Fahrspur2 nicht verlässt. Die in ihrer versetzten Position gestrichelt dargestellte Monokamera ist entsprechend mit 5' bezeichnet. Der leichte Querversatz ermöglicht es nun, dass über die Monokamera5 und5' jeweils Bildaufnahmen mit unterschiedlichen Betrachtungswinkeln auf die überstehende Ladung4 angefertigt werden können. Dies ist auf der ursprünglichen Fahrspur7 mit strichpunktierter Linie und auf der versetzten Fahrspur7' mit strichzweipunktierter Linie entsprechend angedeutet. - Dabei sollte das Fahrzeug
6 bzw.6' in der versetzten Fahrlinie7' exakt parallel zur ursprünglichen Fahrlinie7 fahren, was mit Hilfe der Gierraten- und dGPS-Sensorik und des daraus abgeleiteten Bewegungsmodells sichergestellt wird. Die beiden aus den unterschiedlichen Blickwinkeln angefertigten Bildaufnahmen erlauben nun die Ausnutzung des Stereoeffekts, um den Abstand eines in Richtung Fahrzeugs6 ,6' liegenden Endpunkts8 der überstehenden Ladung4 leicht zu erkennen, sodass der Abstand zwischen dem eigenen Fahrzeug6 ,6' und dem Endpunkt8 der überstehenden Ladung4 sehr zuverlässig ermittelt werden kann. Dieser lässt sich dann in die Längsregelstrategie des Fahrzeugs6 ,6' entsprechend übernehmen, um ein sicheres hoch- oder vollautomatisiertes Fahren des Fahrzeugs6 ,6' zu ermöglichen. - Ferner kann über das Verfahren die Höhe des Endpunkts
8 der überstehenden Ladung4 über der Fahrbahn1 gemessen werden. Wird in diesem Zusammenhang erkannt, dass die überstehende Ladung4 das eigene Fahrzeug6 ,6' überragt, dass dieses also unter die überstehende Ladung4 passen würde, dann kann die überstehende Ladung4 bei der Längsregelstrategie des Fahrzeugs6 ,6' entsprechend ignoriert werden. - Ohne das eine teure Stereokamera notwendig ist, lässt sich so die Genauigkeit der Erkennung von Objekten und insbesondere die Genauigkeit der Abstandsbestimmung steigern und damit die Fahrsicherheit erhöhen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102018004562 A1 [0004]
- DE 19636028 C1 [0005]
Claims (8)
- Verfahren zur Objekterkennung und Abstandsbestimmung in einem Fahrzeug (6, 6') mittels einer Monokamera (5,5'), wobei Objekte mittels Bildauswertung und Klassifikation erkannt werden, dadurch gekennzeichnet, dass mittels der Monokamera (5, 5') eine erste Bildaufnahme angefertigt wird, wonach das Fahrzeug (6, 6') auf eine parallel zur bisherigen Fahrlinie (7) querversetzte Fahrlinie (7') gesteuert wird, wonach eine zweite Bildaufnahme in einem neuen Betrachtungswinkel angefertigt wird, und wonach eine Stereobildauswertung der beiden Bildaufnahmen erfolgt, um den Abstand zu dem Objekt zu bestimmen.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass die Abstandsbestimmung für überstehende Ladung (4) eines vorausfahrenden Fahrzeugs (3) als Objekt erfolgt. - Verfahren nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass die Objekte über trainierte Klassifikatoren und/oder neuronale Netze erkannt werden. - Verfahren nach
Anspruch 1 ,2 oder3 , dadurch gekennzeichnet, dass die erkannten Objekte plausibilisiert werden. - Verfahren nach
Anspruch 4 , dadurch gekennzeichnet, dass die Plausibilisierung anhand objekttypischer Warnsymbole oder Kennzeichen erfolgt. - Verfahren nach einem der
Ansprüche 1 bis5 , dadurch gekennzeichnet, dass der Querversatz in einer Größenordnung von 20 bis 50 cm, vorzugsweise ca. 30 cm, liegt. - Verfahren nach einem der
Ansprüche 1 bis6 , dadurch gekennzeichnet, dass das Fahrzeug (6, 6') auf der neuen Fahrlinie (7') über ein aus einer Fahrsensorik abgeleitetes Bewegungsmodell parallel zur bisherigen Fahrlinie (7), während welcher die erste Bildaufnahme erfolgt war, gehalten wird, während die zweite Bildaufnahme erfolgt. - Verfahren nach einem der
Ansprüche 2 bis7 , dadurch gekennzeichnet, dass ergänzend zum Abstand der überstehenden Ladung (4) die Höhe eines Endpunkts (8) der überstehenden Ladung (4) über der Oberfläche der Fahrbahn (1) bestimmt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019008316.4A DE102019008316A1 (de) | 2019-11-29 | 2019-11-29 | Verfahren zur Objekterkennung und Abstandsbestimmung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019008316.4A DE102019008316A1 (de) | 2019-11-29 | 2019-11-29 | Verfahren zur Objekterkennung und Abstandsbestimmung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019008316A1 true DE102019008316A1 (de) | 2020-08-13 |
Family
ID=71738754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019008316.4A Withdrawn DE102019008316A1 (de) | 2019-11-29 | 2019-11-29 | Verfahren zur Objekterkennung und Abstandsbestimmung |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019008316A1 (de) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
DE102022121257A1 (de) | 2022-08-23 | 2024-02-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Erkennung eines Fahrzeugs mit einer überhängenden Ladung |
US11983630B2 (en) | 2023-01-19 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
-
2019
- 2019-11-29 DE DE102019008316.4A patent/DE102019008316A1/de not_active Withdrawn
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11908171B2 (en) | 2018-12-04 | 2024-02-20 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
DE102022121257A1 (de) | 2022-08-23 | 2024-02-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Erkennung eines Fahrzeugs mit einer überhängenden Ladung |
US11983630B2 (en) | 2023-01-19 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019008316A1 (de) | Verfahren zur Objekterkennung und Abstandsbestimmung | |
EP2272691B1 (de) | Verfahren zum Bestimmen einer Position eines an einem Fahrzeug angehängten Anhängers relativ zum Fahrzeug sowie Fahrerassistenzsystem für ein Farhzeug | |
DE102012022336A1 (de) | Verfahren zum Durchführen eines zumindest semi-autonomen Parkvorgangs eines Kraftfahrzeugs in eine Garage, Parkassistenzsystem und Kraftfahrzeug | |
EP3356203B1 (de) | Verfahren zum bestimmen einer parkfläche zum parken eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug | |
DE102009028451A1 (de) | Kollisionsüberwachung für ein Kraftfahrzeug | |
EP3665502B1 (de) | Verfahren zum überwachen eines umgebungsbereiches eines kraftfahrzeugs, sensorsteuergerät, fahrerassistenzsystem sowie kraftfahrzeug | |
DE102016117712A1 (de) | Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102016102065A1 (de) | Verfahren zum Unterstützen einer autonomen Fahrt eines Kraftfahrzeugs, Steuereinrichtung sowie Parkassistenzsystem | |
DE102019217428A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsystems, Fahrerassistenzsystem und Fahrzeug | |
EP3477249A1 (de) | Verfahren zur formerkennung eines objekts in einem aussenbereich eines kraftfahrzeugs sowie kraftfahrzeug | |
DE102010049216A1 (de) | Verfahren zum Betrieb einer an einem Fahrzeug angeordneten Kamera | |
DE102018005118A1 (de) | Verfahren zum Bestimmen eines Knickwinkels | |
DE102012024879A1 (de) | Fahrerassistenzsystem zum zumindest partiellen Abbremsen eines Kraftfahrzeugs, Kraftfahrzeug und entsprechendes Verfahren | |
DE102017007958A1 (de) | Fahrerassistenzsystem für ein Fahrzeug und Fahrzeug mit einem solchen Fahrerassistenzsystem | |
DE102013104335A1 (de) | Verfahren zur Auslösung einer Fahrerassistenzfunktion bei einer Detektion eines Bremslichtes mittels einer Kamera | |
EP3032517A1 (de) | Vorrichtung und verfahren zur unterstützung eines fahrers eines fahrzeugs, insbesondere eines nutzfahrzeugs | |
DE102018119832A1 (de) | Verfahren und Vorrichtung zum Betrieb eines autonom fahrenden Fahrzeuges | |
DE102020003100A1 (de) | Verfahren zu einer kamerabasierten Erkennung von Lichtsignalanlagen | |
DE102012016980A1 (de) | Verfahren zum Positionieren eines Fahrzeugs | |
DE102017100669A1 (de) | Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug | |
DE102016119592A1 (de) | Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102016003116A1 (de) | Verfahren zum Betreiben eines Fahrwerks eines Kraftfahrzeugs | |
DE102020103597A1 (de) | Verfahren und System zum Ermitteln einer Ausrichtung eines Anhängers gegenüber einem Zugfahrzeug | |
DE102018000276A1 (de) | Verfahren zum Unterscheiden von Objekten | |
DE102019008079A1 (de) | Verfahren zum Erkennen mindestens eines Objekts in einem Fahrbereich eines Fahrzeugs, Vorrichtung eingerichtet zum Druchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R081 | Change of applicant/patentee |
Owner name: DAIMLER AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |