-
Die vorliegende Erfindung betrifft ein Verfahren zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensorvorrichtungen am Fahrzeug erhalten werden, eine Vorrichtung zum Ausführen der entsprechenden Schritte des Verfahrens und ein System, das eine solche Vorrichtung umfasst. Die Erfindung betrifft außerdem ein Fahrzeug, das eine solche Vorrichtung oder ein solches System umfasst.
-
Anzeigen von fortschrittlichen Fahrerassistenzsystemen (advanced driver assistance systems, ADAS) des Stands der Technik, die in Fahrzeugen, insbesondere Kraftfahrzeugen, vorgesehen sind, zeigen eine zweidimensionale Bilddarstellung. In der Folge ist der Fahrer des Fahrzeugs nicht in der Lage, aus einem unbewegten Einzelbild die Abstände und Tiefen von Objekten, die in der Bilddarstellung vorliegen, genau und präzise zu beurteilen.
-
Obwohl im Fahrzeug Assistenzsysteme zur Verfügung stehen, muss der Fahrer somit der Anzeige weiterhin hohe Aufmerksamkeit schenken, um die Bilddarstellung in Bezug auf die einzelnen darauf gezeigten Objekte zu interpretieren und zu verstehen. Während des Parkens muss der Fahrer beispielsweise sorgfältig die Bilddarstellung analysieren, um nicht auf Objekte zu stoßen, die sich in der Szene befinden. Diese erforderliche Aufmerksamkeit geht einher mit höherer Unaufmerksamkeit des Fahrers gegenüber anderen Ereignissen. Dies führt wiederum zu einem erhöhten Unfallrisiko.
-
Daher zielt die Erfindung darauf ab, Informationen, die die Fahrzeugumgebung betreffen, in komfortablerer, zuverlässiger und sichererer Weise bereitzustellen.
-
Die Erfindung löst die Aufgabe gemäß einem ersten Gesichtspunkt mittels eines Verfahrens zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensorvorrichtungen am Fahrzeug erhalten werden, umfassend die folgenden Schritte: Empfangen mindestens eines ersten Bilds, das mittels einer ersten Sensorvorrichtung erhalten wird; Empfangen mindestens eines zweiten Bilds, das mittels einer zweiten Sensorvorrichtung erhalten wird; Erzeugen eines gemeinsamen 3D-Raums durch Kombinieren von Informationen aus mindestens dem ersten Bild und dem zweiten Bild; Identifizieren mindestens eines Objekts in dem gemeinsamen 3D-Raum, wobei das Objekt zumindest teilweise in dem ersten und zumindest teilweise in dem zweiten Bild gezeigt wird; Bestimmen mindestens einer 3D-Information des Objekts; und Durchführen, basierend auf der bestimmten 3D-Information, mindestens einer Handlung.
-
In einer Ausführungsform umfasst das Verfahren vorzugsweise ferner die folgenden Schritte: (i) Empfangen mindestens eines dritten Bilds, vorzugsweise einer Vielzahl von dritten Bildern, die mittels mindestens einer dritten Sensorvorrichtung, vorzugsweise mittels einer Vielzahl von dritten Sensorvorrichtungen erhalten werden; (ii) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem ersten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der ersten Sensorvorrichtung; (iii) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem zweiten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der zweiten Sensorvorrichtung; (iv) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem dritten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der dritten Sensorvorrichtung; und/oder (v) zumindest teilweises Empfangen eines Rundumsichtbilds, zumindest teilweises Erzeugen mindestens eines Rundumsichtbilds mittels eines Rundumsichtbildprozessors, zumindest teilweises Erzeugen mindestens eines Rundumsichtbilds für mindestens ein Fahrerassistenzsystem und/oder zumindest teilweises Anzeigen mindestens eines Rundumsichtbilds durch mindestens ein Fahrerassistenzsystem, wobei insbesondere das Rundumsichtbild zumindest teilweise auf mindestens dem ersten Bild, dem zweiten Bild und/oder dem dritten Bild basiert.
-
In einer weiteren Ausführungsform (i) umfasst das Erzeugen des gemeinsamen 3D-Raums ferner den folgenden Schritt: Durchführen von 3D-Datenmapping, insbesondere zumindest teilweise des ersten, zweiten und/oder dritten Bilds, und/oder Bestimmen mindestens eines Teils von gemeinsamen Sichtfeldern der jeweiligen Bilder; (ii) umfasst das Erzeugen des gemeinsamen 3D-Raums ferner den folgenden Schritt: Abgleichen von Objekten, zumindest des Objekts, das zumindest teilweise in dem ersten Bild, in dem zweiten Bild und/oder dem dritten Bild gezeigt wird, insbesondere mittels (a) Erkennung von Bildmerkmalen, insbesondere dem Aufweisen von großen Unterschieden, (b) Verfolgen im Zeitverlauf, (c) bestimmten Bewegungsstrukturen von Objekten und/oder (d) mindestens eines „random sample consensus“ (RANSAC)-basierten Verfahrens; (iii) ist, umfasst und/oder stellt der gemeinsame 3D-Raum zumindest teilweise ein Modell mindestens eines Teils der Fahrzeugumgebung, insbesondere mindestens eines Teils des Fahrzeugumfelds dar; wird (iv) die 3D-Information zumindest teilweise basierend auf dem gemeinsamen 3D-Raum bestimmt wird; (v) die 3D-Information zumindest teilweise mindestens eine Tiefeninformation und/oder einen Abstand umfasst; (vi) der Abstand ein Abstand des Objekts ist, der in Bezug auf mindestens einen Referenzpunkt gemessen wird, insbesondere mindestens einem Referenzpunkt, der sich zumindest teilweise an oder auf dem Fahrzeug befindet, und/oder (vii) das Rundumsichtbild zumindest teilweise Folgendes umfasst: mindestens einen ersten Bildteil, wobei der erste Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: zumindest teilweises Beschneiden des ersten Bilds entlang mindestens einer ersten Grenze, mindestens einen zweiten Bildteil, wobei der zweite Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: zumindest teilweises Beschneiden des zweiten Bilds entlang mindestens einer zweiten Grenze, und/oder mindestens einen dritten Bildteil, wobei der dritte Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: Beschneiden des dritten Bilds entlang mindestens einer dritten Grenze.
-
In noch einer weiteren Ausführungsform umfasst das Durchführen der Handlung die folgenden Schritte: (i) Bestimmen, ob sich das Objekt zumindest teilweise in mindestens einem Totwinkelbereich des Rundumsichtbilds befindet, wobei das Objekt sich insbesondere in dem Totwinkelbereich befindet, wenn das Objekt sich außerhalb und/oder teilweise außerhalb des ersten Bildteils und/oder außerhalb und/oder teilweise außerhalb des zweiten Bildteils befindet; und vorzugsweise in Reaktion auf die Bestimmung, dass das Objekt sich zumindest teilweise in dem Totwinkelbereich befindet, insbesondere ferner umfassend den folgenden Schritt: Anpassen mindestens eines Teils der ersten Grenze und/oder der zweiten Grenze, um das Objekt zumindest teilweise in dem ersten Bildteil und/oder in dem zweiten Bildteil einzuschließen; (ii) Auslösen einer Meldevorrichtung zum Informieren des Fahrzeugfahrers über das Objekt, wenn die 3D-Information des Objekts einen ersten Schwellenwert überschreitet und/oder unterschreitet; (iii) Verbessern mindestens einer der folgenden Anwendungen mit der 3D-Information des Objekts: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern; (iv) Neuanordnen zumindest eines Teils des Rundumsichtbilds, insbesondere mittels Verändern, insbesondere Vergrößern und/oder Verkleinern, der Zoom-Stufe des Rundumsichtbilds, zumindest teilweises Hervorheben des Objekts auf dem Rundumsichtbild und/oder zumindest teilweises Isolieren des Objekts auf dem Rundumsichtbild, abhängig von der 3D-Information des Objekts, insbesondere, wenn die 3D-Information des Objekts einen zweiten Schwellenwert überschreitet und/oder unterschreitet; und/oder (v) zumindest teilweises Weiterleiten der 3D-Information des Objekts an mindestens ein fortschrittliches Fahrerassistenzsystem.
-
Die Erfindung löst die Aufgabe gemäß einem zweiten Gesichtspunkt mittels einer Vorrichtung zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, umfassend mindestens einen Prozessor, der ausgelegt ist, die Schritte des Verfahrens gemäß dem ersten Gesichtspunkt der Erfindung auszuführen.
-
Die Erfindung löst die Aufgabe gemäß einem dritten Gesichtspunkt mittels eines Systems zum Erhalten von 3D-Information(en) von Objekten, die in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, umfassend: mindestens eine erste Sensorvorrichtung; mindestens eine zweite Sensorvorrichtung; und mindestens eine Vorrichtung gemäß dem zweiten Gesichtspunkt der Erfindung.
-
In einer Ausführungsform (i) umfasst das System ferner mindestens eine dritte Sensorvorrichtung, vorzugsweise eine Vielzahl von dritten Sensorvorrichtungen; (ii) umfasst das System ferner mindestens ein Fahrerassistenzsystem und/oder mindestens eine Meldevorrichtung; (iii) mindestens einen Vogelperspektivsystemprozessor und/oder Rundumsichtbildprozessor; und/oder (iv) umfasst das System ferner mindestens eine Vorrichtung, die ausgelegt ist, mindestens eine der folgenden Anwendungen auszuführen: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern.
-
In einer weiteren Ausführungsform (i) ist die erste Sensorvorrichtung dazu ausgelegt, zumindest teilweise mindestens ein erstes Bild zu erhalten; (ii) umfasst und/oder stellt die erste Sensorvorrichtung zumindest teilweise mindestens eine erste Kamera, mindestens eine erste Kameraüberwachungssystem- (camera monitor system, cms) -Kamera, mindestens eine erste Spiegelersatzkamera, mindestens eine erste Rückfahrkamera, mindestens eine erste Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen ersten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen ersten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine erste Radarvorrichtung, mindestens eine erste LIDAR-Vorrichtung und/oder mindestens eine erste Ultraschallvorrichtung dar; (iii) umfasst die erste Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse und/oder ist an einer ersten Position an dem Fahrzeug befestigt oder befestigbar; (iv) ist die zweite Sensorvorrichtung dazu ausgelegt, zumindest teilweise mindestens ein zweites Bild zu erhalten; (v) umfasst und/oder stellt die zweite Sensorvorrichtung zumindest teilweise mindestens eine zweite Kamera, mindestens eine zweite Kameraüberwachungssystem(cms)-Kamera, mindestens eine zweite Spiegelersatzkamera, mindestens eine zweite Rückfahrkamera, mindestens eine zweite Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen zweiten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen zweiten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine zweite Radarvorrichtung, mindestens eine zweite LIDAR-Vorrichtung und/oder mindestens eine zweite Ultraschallvorrichtung dar; (vi) umfasst die dritte Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse und/oder ist an einer dritten Position an dem Fahrzeug befestigt oder befestigbar; (vii) die dritte Sensorvorrichtung dazu ausgelegt ist, zumindest teilweise mindestens ein drittes Bild zu erhalten; (viii) umfasst und/oder stellt die dritte Sensorvorrichtung zumindest teilweise mindestens eine dritte Kamera, mindestens eine dritte Kameraüberwachungssystem(cms)-Kamera, mindestens eine dritte Spiegelersatzkamera, mindestens eine dritte Rückfahrkamera, mindestens eine dritte Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen dritten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen dritten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine dritte Radarvorrichtung, mindestens eine dritte LIDAR-Vorrichtung und/oder mindestens eine dritte Ultraschallvorrichtung dar; (ix) die zweite Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse umfasst und/oder an einer zweiten Position an dem Fahrzeug befestigt oder befestigbar ist; und/oder (x) weist die erste Sensorvorrichtung und die zweite Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, weist die erste Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, weist die zweite Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild auf, das mittels der zweiten Sensorvorrichtung erhalten wird, weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild auf, das mittels der dritten Sensorvorrichtung erhalten wird, und/oder weist das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild auf, das mittels der dritten Sensorvorrichtung erhalten wird.
-
Die Erfindung löst die Aufgabe gemäß einem vierten Gesichtspunkt mittels eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, das zumindest teilweise eine Vorrichtung gemäß dem zweiten Gesichtspunkt der Erfindung und/oder ein System gemäß dem dritten Gesichtspunkt der Erfindung umfasst.
-
In einer Ausführungsform ist die erste Sensorvorrichtung zumindest teilweise an einer ersten Position an dem Fahrzeug befestigt, die zweite Sensorvorrichtung zumindest teilweise an einer zweiten Position an dem Fahrzeug befestigt und/oder die dritte Sensorvorrichtung zumindest teilweise an einer dritten Position an dem Fahrzeug befestigt.
-
Somit wurde vorteilhafterweise herausgefunden, dass ein erstes und ein zweites Bild, die mittels einer ersten und zweiten Sensorvorrichtung, insbesondere mittels einer ersten und einer zweiten Kamera erhalten werden, vorteilhafterweise für den Zweck des Bestimmens mindestens einer 3D-Information mindestens eines Objekts, das auf beiden Bildern gezeigt wird, verwendet werden können, wenn die Bildinformation beider Bilder in einem gemeinsamen 3D-Raum kombiniert wird.
-
Hierbei kann der Begriff „gemeinsamer 3D-Raum“ verwendet werden, um ein 3D-Modell zumindest eines Teils der Fahrzeugumgebung zu bezeichnen, wobei das Modell basierend auf mindestens dem ersten und zweiten Bild erzeugt wird.
-
Zum Kombinieren der Informationen in dem gemeinsamen 3D-Raum kann vorteilhafterweise Datenmapping verwendet werden.
-
Hierbei kann der Begriff „Datenmapping“ verwendet werden, um jede Art Mapping eines Pixels eines ersten Bilds auf einen weiteren Pixel eines zweiten Bilds zu bezeichnen, was es somit ermöglicht, 3D-Information(en) in Bezug auf zumindest einen Teil eines Objekts zu erhalten, das Teil der Bilder ist, die die jeweiligen Pixel umfassen.
-
Durch die Erfinder wurde überraschenderweise herausgefunden, dass mittels des gemeinsamen 3D-Raums Objekte identifiziert werden können, die zumindest teilweise auf beiden Bildern gezeigt werden, und zudem in einer sehr komfortablen, stabilen und effizienten Weise mit den jeweiligen Objekten verbundene 3D-Information(en) bestimmt werden kann.
-
Basierend auf der 3D-Information(en) kann mindestens eine Handlung durchgeführt werden, die das Fahrererlebnis verbessert und außerdem die Sicherheit verbessert.
-
Es ist sehr vorteilhaft, dass zwei Bilder ausreichen, um die vorliegende Erfindung zu implementieren. Wobei die Erfinder auch erkannt haben, dass es auch möglich ist, noch mehr als zwei Bilder, d. h. mindestens ein drittes Bild, vorzugsweise eine Vielzahl von dritten Bildern zu verwenden, die mittels mindestens einer, vorzugsweise einer Vielzahl von dritten Sensorvorrichtungen erhalten werden. Indem mehr als zwei Bilder zum Zweck des Erzeugens des gemeinsamen 3D-Raums verwendet werden, kann eine noch höhere Genauigkeit des Datenmodells und den daraus abgeleiteten Informationen erreicht werden, als bereits möglich ist, wenn zwei Bilder die Basis bilden. Die Vielzahl von Bildern kann derart erzeugt werden, dass jede der ersten, zweiten und/oder dritten Sensorvorrichtung jeweils einzelne Bilder liefert und/oder kann eine Vielzahl von Bildern sein, die jeweils, insbesondere als aufeinanderfolgende Bilder, mittels der ersten, zweiten und/oder dritten Sensorvorrichtung erfasst wird.
-
Die Erfinder erkannten auch, dass nahezu jede Art von Bildquelle als die erste und zweite Sensorvorrichtung verwendet werden kann. Somit ist es möglich, sich auf Sensorvorrichtungen zu stützen, die bereits am Fahrzeug vorhanden sind, wie beispielsweise Kameraüberwachungssystem(cms)-Kameras, Spiegelersatzkameras, Rückfahrkameras oder Kameras eines fortschrittlichen Fahrerassistenzsystems des Fahrzeugs. Darüber hinaus ist es möglich, sich auf Bilder zu stützen, die an anderer Stelle verwendet werden, wie beispielsweise ein Vogelperspektivbild oder ein Rundumsichtbild, und somit entsprechende Vogelperspektivbildprozessoren oder Rundumsichtbildprozessoren, die entsprechende Bilder liefern, als eine geeignete Sensorvorrichtung im Sinne der vorliegenden Erfindung zu verwenden. Dies macht zusätzliche Vorrichtungen unnötig und reduziert außerdem die Rechenleistung, da Bilder erneut verwendet werden können, die ohnehin zur Verfügung stehen.
-
Insbesondere wurde herausgefunden, dass Bildverzerrungen, insbesondere aufgrund von Fischaugenlinsen von Kameras, die zum Erhalten von ersten, zweiten und/oder dritten Bildern verwendet werden, mittels geeigneter in der Technik bekannter Algorithmen korrigiert werden können. Somit ist es umso mehr möglich, sich für die Zwecke der vorliegenden Erfindung auf jede beliebige Kamera zu stützen, die an dem Fahrzeug vorgesehen ist.
-
Um den gemeinsamen 3D-Raum zu erzeugen, kann ein Abgleich der Objekte durchgeführt werden, die in beiden, dem ersten und dem zweiten Bild (oder auch in mehr Bildern, wenn mehr als zwei Bilder empfangen werden) gezeigt werden. Die ermöglicht insbesondere, sicherzustellen, dass ein und dasselbe Objekt auch in dem gemeinsamen 3D-Raum nur als einzelnes Objekt erscheint.
-
Basierend auf dem gemeinsamen 3D-Raum ist es vorteilhafterweise möglich, Objekte zu detektieren und/oder 3D-Information(en) von jeweiligen Objekten zu bestimmen, insbesondere auf Basis der Information(en), die mit dem jeweiligen Voxel (3D-Pixel) des gemeinsamen 3D-Raums verknüpft ist. Insbesondere umfasst die 3D-Information(en) eine Tiefeninformation. Diese kann ein relativer oder ein absoluter Wert sein. Die 3D-Information(en) kann zudem oder alternative auch einen Abstandswert umfassen. Dieser Wert kann in Bezug zu einem bestimmten Referenzpunkt angegeben werden. Der Referenzpunkt kann beispielsweise in Bezug auf eine bestimmte Position an oder auf dem Fahrzeug gewählt werden.
-
Außerdem ist es, wenn der gemeinsame 3D-Raum erzeugt wurde, außerdem vorteilhafterweise möglich, die 3D-Information(en) zu verwenden, um zu bestimmen, ob ein bestimmtes Objekt sich zumindest teilweise in mindestens einem Totwinkelbereich eines Rundumsichtbilds befindet. Das Rundumsichtbild kann dann in dem Fall, in dem ein Objekt in dem Totwinkelbereich vorhanden ist, angepasst werden. Dies stellt sicher, dass jedes Objekt, das ein Risiko für das Fahrzeug, den Fahrer, das Objekt selbst oder einer Kombination davon darstellen könnte, zuverlässig zumindest teilweise auf dem Rundumsichtbild gezeigt wird. Vorzugsweise können dieselben Bilder, die zum Erzeugen des Rundumsichtbilds verwendet werden, auch zum Erzeugen des gemeinsamen 3D-Raums verwendet werden, sodass Ressourcen gespart werden.
-
Somit wird ein Multisensorsystem vorgestellt, das insbesondere aus jeder Kamera, die an dem Auto positioniert ist, und mit jedem Linsentyp 3D-Information(en) erzeugen kann. Wenn 3D-Information(en) verfügbar ist, kann diese Information(en) verwendet werden, um den Fahrer z. B. über Objektabstände (z. B. eine Wand während des Parkens, die Höhe von Brücken und Ähnliches) zu informieren. Ein solches System und solche 3D-Information(en) können zudem oder alternativ Informationen von anderen Sensoren und auch die anderen Sensoren ersetzen.
-
Für ein besseres Verständnis der Erfindung in Verbindung mit einigen beispielhaften Abbildungen zeigen die folgenden Zeichnungen Gesichtspunkte der Erfindung, wobei
- 1a, 1b erste und zweite Bilder zeigen, die eine erste Szene darstellen;
- 2a, 2b erste und zweite Bilder zeigen, die eine zweite Szene darstellen;
- 3a, 3b, 3c erste, zweite und dritte Bilder zeigen, die eine dritte Szene darstellen;
- 4 ein Funktionsdiagramm eines Verfahrens gemäß einer Ausführungsform des ersten Gesichtspunkts der Erfindung zeigt;
- 5a, 5b, 5c einen gemeinsamen 3D-Raum aus einem ersten, zweiten und dritten Blickwinkel zeigen; und
- 6 eine schematische Darstellung eines Rundumsichtbilds zeigt.
-
1a und 1b zeigen jeweils ein erstes und ein zweites Bild, die eine erste Szene darstellen. Die beiden Bilder der ersten Szene wurden auf einem Parkplatz aufgenommen. Das erste Bild, das in 1a gezeigt wird, wird mittels einer ersten Sensorvorrichtung erhalten, die eine erste Kamera umfasst, die an einer ersten Position an einem Fahrzeug befestigt ist. Die erste Position befindet sich oben auf dem Fahrzeug. Das zweite Bild, das in 1b gezeigt wird, wird mittels einer zweiten Sensorvorrichtung erhalten, die eine zweite Kamera umfasst, die an einer zweiten Position an dem Fahrzeug befestigt ist. Die zweite Position befindet sich, in Bezug auf eine Hauptfahrtrichtung, auf der linken Seite des Fahrzeugs, d. h. der Fahrerseite in einem Rechtsverkehrfahrzeug.
-
Die erste Sensorvorrichtung und die zweite Sensorvorrichtung weisen im Wesentlichen das gleiche globale Sichtfeld auf, somit weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild auf, das mittels der zweiten Sensorvorrichtung erhalten wird.
-
2a und 2b zeigen jeweils ein erstes und ein zweites Bild, die eine zweite Szene umfassen. Die beiden Bilder der zweiten Szene wurden auf einem Parkplatz aufgenommen. Das erste Bild, das in 2a gezeigt wird, wird mittels einer ersten Sensorvorrichtung erhalten, die eine erste Spiegelersatzkamera darstellt, die an einer ersten Position an einem Fahrzeug befestigt ist. Die erste Position befindet sich, in Bezug auf eine Hauptfahrtrichtung, auf der rechten Seite des Fahrzeugs, insbesondere einer Spiegelersatzposition, d. h. auf der Beifahrerseite eines Rechtsverkehrautos. Das zweite Bild, das in 2b gezeigt wird, wird mittels einer zweiten Sensorvorrichtung erhalten, die eine zweite Kamera umfasst, die an einer zweiten Position an dem Fahrzeug befestigt ist. Die zweite Position befindet sich auf der rechten Seite, d. h. der Beifahrerseite, des Fahrzeugs. Die zweite Sensorvorrichtung umfasst eine Fischaugenlinse. Insbesondere ist die zweite Sensorvorrichtung hierbei eine zweite Kamera des fortschrittlichen Fahrerassistenzsystems, z. B. ein Teil eines Vogelperspektivsystems.
-
Offensichtlich weist für die zweite Szene zumindest das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem ersten Bild auf, das mittels der ersten Sensorvorrichtung erhalten wird.
-
3a, 3b, 3c zeigen jeweils ein erstes Bild, ein zweites Bild und - im Gegensatz zu den vorherigen Szenen außerdem ein drittes Bild, die eine dritte Szene darstellen. Die drei Bilder der dritten Szene wurden auf einer Straße in der Stadt aufgenommen. Das erste Bild, das in 3a gezeigt wird, wird mittels einer ersten Sensorvorrichtung erhalten, die eine erste Spiegelersatzkamera darstellt, die an einer ersten Position an einem Fahrzeug befestigt ist. Die erste Position befindet sich auf der Beifahrerseite des Fahrzeugs, insbesondere einer ersten Spiegelersatzposition. Das zweite Bild, das in 2b gezeigt wird, wird mittels einer zweiten Sensorvorrichtung erhalten, die eine zweite Kamera, insbesondere eine Rückfahrkamera darstellt, die an einer zweiten Position an dem Fahrzeug befestigt ist. Die zweite Position befindet sich oben auf dem Fahrzeug. Das dritte Bild, das in 3c gezeigt wird, wird mittels einer dritten Sensorvorrichtung erhalten, die eine zweite Spiegelersatzkamera darstellt, die an einer dritten Position an einem Fahrzeug befestigt ist. Die dritte Position befindet sich auf der linken Seite des Fahrzeugs, insbesondere einer zweiten Spiegelersatzposition.
-
Die erste Sensorvorrichtung und die zweite Sensorvorrichtung weisen im Wesentlichen das gleiche globale Sichtfeld auf, somit weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild auf, das mittels der zweiten Sensorvorrichtung erhalten wird. In analoger Weise weisen die zweite Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, somit weist das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild auf, das mittels der dritten Sensorvorrichtung erhalten wird.
-
4 zeigt ein Funktionsdiagramm eines Verfahrens 100 zum Erhalten von 3D-Information(en) von Objekten, die in mindestens zwei Bildern gezeigt werden, die in Bezug auf Szene drei wie vorstehend beschrieben mittels der drei Sensoren am Fahrzeug erhalten werden, gemäß einer Ausführungsform des ersten Gesichtspunkts der Erfindung.
-
In Schritten 101, 103 und 105 des Verfahrens 100 werden jeweils das erste, das zweite und das dritte Bild empfangen, die jeweils mittels der ersten, der zweiten und der dritten Sensorvorrichtung erhalten werden. In einem Schritt 107 wird durch Kombinieren von Informationen aus mindestens dem ersten Bild, dem zweiten Bild und dem dritten Bild ein gemeinsamer 3D-Raum erzeugt. D. h., Informationen aus verschiedenen Ansichten werden in dem gemeinsamen 3D-Raum kombiniert.
-
Um den gemeinsamen 3D-Raum zu erzeugen, werden gemeinsame Sichtfelder des ersten, zweiten und dritten Bilds bestimmt. D. h., zur geeigneten Kombination der jeweiligen Bilder in dem gemeinsamen 3D-Raum werden die überlappenden Bereiche des ersten und zweiten, ersten und dritten und zweiten und dritten Bilds bestimmt. Das Erzeugen des gemeinsamen 3D-Raums umfasst ferner das Abgleichen von Objekten, die zumindest teilweise in mindestens zwei Bildern des ersten Bilds, der zweiten Bilds und/oder des dritten Bilds zusammen gezeigt werden. Vorzugsweise wird der Abgleich mittels Erkennung von Bildmerkmalen, insbesondere dem Aufweisen von großen Unterschieden, Verfolgen im Zeitverlauf, bestimmten Bewegungsstrukturen von Objekten und/oder mindestens eines „random sample consensus“ (RANSAC)-basierten Verfahrens durchgeführt.
-
An den Bildern wird keine Verzerrungskorrektur angewandt, da für die Sensorvorrichtungen keine Fischaugenlinsen verwendet werden. Vorzugsweise wurden die Sensorvorrichtungen, insbesondere die Kameras, die für das Verfahren, die Vorrichtung und/oder das System verwendet werden, bereits, insbesondere intern und/oder extern, kalibriert.
-
In einem Schritt 109 des Verfahrens 100 wird mindestens ein Objekt in dem gemeinsamen 3D-Raum identifiziert, wobei das Objekt in dem ersten, zweiten und/oder dritten Bilds gezeigt wird.
-
Hierbei stellt der gemeinsame 3D-Raum ein Modell mindestens eines Teils der Fahrzeugumgebung dar. 5a bis 5c zeigen den gemeinsamen 3D-Raum mit zwei identifizierten Objekten (nämlich, zwei Autos, die auf der rechten Seite des Fahrzeugs parken) jeweils aus einem ersten, zweiten und dritten Blickwinkel.
-
In einem Schritt 111 des Verfahrens 100 wird mindestens eine 3D-Information von mindestens einem der Objekte bestimmt. Insbesondere wird ein Abstand des Objekts in Bezug auf einen Referenzpunkt, der sich am Fahrzeug befindet, bestimmt. In einem Schritt 113 des Verfahrens 100 wird basierend auf der 3D-Information mindestens eine Handlung durchgeführt.
-
Die Handlung, die durchgeführt wird, umfasst das Verbessern mindestens einer der folgenden Anwendungen mit der 3D-Information des Objekts: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern.
-
Ein weiteres Verfahren (für das kein Funktionsdiagramm gezeigt ist), das dem Verfahren 100 wie in Bezug auf 4 beschrieben ähnelt, umfasst einen weiteren Schritt des Erzeugens mindestens eines Rundumsichtbilds mittels eines Rundumsichtbildprozessors. 6 zeigt eine schematische Darstellung des entsprechenden Rundumsichtbilds 201. Das Rundumsichtbild 201 umfasst mindestens einen ersten Bildteil 203, wobei der erste Bildteil erhalten wird mittels Beschneiden eines ersten Bilds 205 entlang mindestens einer ersten Grenze 207, einen zweiten Bildteil 209, wobei der zweite Bildteil 209 erhalten wird mittels Beschneiden eines zweiten Bilds 211 entlang mindestens einer zweiten Grenze 213, einen ersten dritten Bildteil 215, wobei der erste dritte Bildteil 215 erhalten wird mittels Beschneiden eines ersten dritten Bilds 217 entlang mindestens einer ersten dritten Grenze 219, und einen zweiten dritten Bildteil 221, wobei der zweite dritte Bildteil 221 erhalten wird mittels Beschneiden eines zweiten dritten Bilds 223 entlang mindestens einer zweiten dritten Grenze 225.
-
Hierbei umfasst die durchgeführte Handlung ferner den folgenden Schritt: Bestimmen, ob das Objekt sich zumindest teilweise in mindestens einem Totwinkelbereich 227 des Rundumsichtbilds 201 befindet. Das Objekt befindet sich in dem Totwinkelbereich 227, wenn das Objekt sich außerhalb oder teilweise außerhalb des ersten Bildteils 203 und/oder außerhalb oder teilweise außerhalb des zweiten Bildteils 209 befindet.
-
Wenn bestimmt wird, dass das Objekt sich zumindest teilweise in dem Totwinkelbereich 227 befindet, umfasst das Verfahren den weiteren folgenden Schritt: Anpassen mindestens eines Teils 229 der ersten Grenze 207 und/oder mindestens eines Teils 231 der zweiten Grenze 213, um das Objekt in dem ersten Bildteil 203 und/oder in dem zweiten Bildteil 209 einzuschließen.
-
Die in den Ansprüchen, der Beschreibung und den Zeichnungen offenbarten Merkmale können entweder einzeln oder in einer beliebigen Kombination miteinander wesentlich für verschiedene Ausführungsformen der beanspruchten Erfindung sein.
-
Bezugszeichenliste
-
- 100
- Verfahren
- 101 - 113
- Schritt
- 201
- Rundumsichtbild
- 203
- Bildteil
- 205
- Bild
- 207
- Grenze
- 209
- Bildteil
- 211
- Bild
- 213
- Grenze
- 215
- Bildteil
- 217
- Bild
- 219
- Grenze
- 221
- Bildteil
- 223
- Bild
- 225
- Grenze
- 227
- Totwinkelbereich
- 229
- Grenzteil
- 231
- Grenzteil