DE102018108751A1 - Method, system and device of obtaining 3D-information of objects - Google Patents

Method, system and device of obtaining 3D-information of objects Download PDF

Info

Publication number
DE102018108751A1
DE102018108751A1 DE102018108751.9A DE102018108751A DE102018108751A1 DE 102018108751 A1 DE102018108751 A1 DE 102018108751A1 DE 102018108751 A DE102018108751 A DE 102018108751A DE 102018108751 A1 DE102018108751 A1 DE 102018108751A1
Authority
DE
Germany
Prior art keywords
image
partially
sensor device
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018108751.9A
Other languages
English (en)
Other versions
DE102018108751B4 (de
Inventor
Maximilian Kauffmann
Kai Uwe Hagenburg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motherson Innovations Co Ltd
Original Assignee
Motherson Innovations Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motherson Innovations Co Ltd filed Critical Motherson Innovations Co Ltd
Priority to DE102018108751.9A priority Critical patent/DE102018108751B4/de
Priority to GB1904934.5A priority patent/GB2574697B/en
Priority to CN201910289596.4A priority patent/CN110378836B/zh
Priority to US16/381,732 priority patent/US10733464B2/en
Publication of DE102018108751A1 publication Critical patent/DE102018108751A1/de
Application granted granted Critical
Publication of DE102018108751B4 publication Critical patent/DE102018108751B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/14
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T3/08
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Erhalten von 3D-Information(en) von Objekten, die in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, eine Vorrichtung zum Ausführen der entsprechenden Schritte des Verfahrens und ein System, das eine solche Vorrichtung umfasst. Die Erfindung betrifft außerdem ein Fahrzeug, das eine solche Vorrichtung oder ein solches System umfasst.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensorvorrichtungen am Fahrzeug erhalten werden, eine Vorrichtung zum Ausführen der entsprechenden Schritte des Verfahrens und ein System, das eine solche Vorrichtung umfasst. Die Erfindung betrifft außerdem ein Fahrzeug, das eine solche Vorrichtung oder ein solches System umfasst.
  • Anzeigen von fortschrittlichen Fahrerassistenzsystemen (advanced driver assistance systems, ADAS) des Stands der Technik, die in Fahrzeugen, insbesondere Kraftfahrzeugen, vorgesehen sind, zeigen eine zweidimensionale Bilddarstellung. In der Folge ist der Fahrer des Fahrzeugs nicht in der Lage, aus einem unbewegten Einzelbild die Abstände und Tiefen von Objekten, die in der Bilddarstellung vorliegen, genau und präzise zu beurteilen.
  • Obwohl im Fahrzeug Assistenzsysteme zur Verfügung stehen, muss der Fahrer somit der Anzeige weiterhin hohe Aufmerksamkeit schenken, um die Bilddarstellung in Bezug auf die einzelnen darauf gezeigten Objekte zu interpretieren und zu verstehen. Während des Parkens muss der Fahrer beispielsweise sorgfältig die Bilddarstellung analysieren, um nicht auf Objekte zu stoßen, die sich in der Szene befinden. Diese erforderliche Aufmerksamkeit geht einher mit höherer Unaufmerksamkeit des Fahrers gegenüber anderen Ereignissen. Dies führt wiederum zu einem erhöhten Unfallrisiko.
  • Daher zielt die Erfindung darauf ab, Informationen, die die Fahrzeugumgebung betreffen, in komfortablerer, zuverlässiger und sichererer Weise bereitzustellen.
  • Die Erfindung löst die Aufgabe gemäß einem ersten Gesichtspunkt mittels eines Verfahrens zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensorvorrichtungen am Fahrzeug erhalten werden, umfassend die folgenden Schritte: Empfangen mindestens eines ersten Bilds, das mittels einer ersten Sensorvorrichtung erhalten wird; Empfangen mindestens eines zweiten Bilds, das mittels einer zweiten Sensorvorrichtung erhalten wird; Erzeugen eines gemeinsamen 3D-Raums durch Kombinieren von Informationen aus mindestens dem ersten Bild und dem zweiten Bild; Identifizieren mindestens eines Objekts in dem gemeinsamen 3D-Raum, wobei das Objekt zumindest teilweise in dem ersten und zumindest teilweise in dem zweiten Bild gezeigt wird; Bestimmen mindestens einer 3D-Information des Objekts; und Durchführen, basierend auf der bestimmten 3D-Information, mindestens einer Handlung.
  • In einer Ausführungsform umfasst das Verfahren vorzugsweise ferner die folgenden Schritte: (i) Empfangen mindestens eines dritten Bilds, vorzugsweise einer Vielzahl von dritten Bildern, die mittels mindestens einer dritten Sensorvorrichtung, vorzugsweise mittels einer Vielzahl von dritten Sensorvorrichtungen erhalten werden; (ii) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem ersten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der ersten Sensorvorrichtung; (iii) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem zweiten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der zweiten Sensorvorrichtung; (iv) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem dritten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der dritten Sensorvorrichtung; und/oder (v) zumindest teilweises Empfangen eines Rundumsichtbilds, zumindest teilweises Erzeugen mindestens eines Rundumsichtbilds mittels eines Rundumsichtbildprozessors, zumindest teilweises Erzeugen mindestens eines Rundumsichtbilds für mindestens ein Fahrerassistenzsystem und/oder zumindest teilweises Anzeigen mindestens eines Rundumsichtbilds durch mindestens ein Fahrerassistenzsystem, wobei insbesondere das Rundumsichtbild zumindest teilweise auf mindestens dem ersten Bild, dem zweiten Bild und/oder dem dritten Bild basiert.
  • In einer weiteren Ausführungsform (i) umfasst das Erzeugen des gemeinsamen 3D-Raums ferner den folgenden Schritt: Durchführen von 3D-Datenmapping, insbesondere zumindest teilweise des ersten, zweiten und/oder dritten Bilds, und/oder Bestimmen mindestens eines Teils von gemeinsamen Sichtfeldern der jeweiligen Bilder; (ii) umfasst das Erzeugen des gemeinsamen 3D-Raums ferner den folgenden Schritt: Abgleichen von Objekten, zumindest des Objekts, das zumindest teilweise in dem ersten Bild, in dem zweiten Bild und/oder dem dritten Bild gezeigt wird, insbesondere mittels (a) Erkennung von Bildmerkmalen, insbesondere dem Aufweisen von großen Unterschieden, (b) Verfolgen im Zeitverlauf, (c) bestimmten Bewegungsstrukturen von Objekten und/oder (d) mindestens eines „random sample consensus“ (RANSAC)-basierten Verfahrens; (iii) ist, umfasst und/oder stellt der gemeinsame 3D-Raum zumindest teilweise ein Modell mindestens eines Teils der Fahrzeugumgebung, insbesondere mindestens eines Teils des Fahrzeugumfelds dar; wird (iv) die 3D-Information zumindest teilweise basierend auf dem gemeinsamen 3D-Raum bestimmt wird; (v) die 3D-Information zumindest teilweise mindestens eine Tiefeninformation und/oder einen Abstand umfasst; (vi) der Abstand ein Abstand des Objekts ist, der in Bezug auf mindestens einen Referenzpunkt gemessen wird, insbesondere mindestens einem Referenzpunkt, der sich zumindest teilweise an oder auf dem Fahrzeug befindet, und/oder (vii) das Rundumsichtbild zumindest teilweise Folgendes umfasst: mindestens einen ersten Bildteil, wobei der erste Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: zumindest teilweises Beschneiden des ersten Bilds entlang mindestens einer ersten Grenze, mindestens einen zweiten Bildteil, wobei der zweite Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: zumindest teilweises Beschneiden des zweiten Bilds entlang mindestens einer zweiten Grenze, und/oder mindestens einen dritten Bildteil, wobei der dritte Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: Beschneiden des dritten Bilds entlang mindestens einer dritten Grenze.
  • In noch einer weiteren Ausführungsform umfasst das Durchführen der Handlung die folgenden Schritte: (i) Bestimmen, ob sich das Objekt zumindest teilweise in mindestens einem Totwinkelbereich des Rundumsichtbilds befindet, wobei das Objekt sich insbesondere in dem Totwinkelbereich befindet, wenn das Objekt sich außerhalb und/oder teilweise außerhalb des ersten Bildteils und/oder außerhalb und/oder teilweise außerhalb des zweiten Bildteils befindet; und vorzugsweise in Reaktion auf die Bestimmung, dass das Objekt sich zumindest teilweise in dem Totwinkelbereich befindet, insbesondere ferner umfassend den folgenden Schritt: Anpassen mindestens eines Teils der ersten Grenze und/oder der zweiten Grenze, um das Objekt zumindest teilweise in dem ersten Bildteil und/oder in dem zweiten Bildteil einzuschließen; (ii) Auslösen einer Meldevorrichtung zum Informieren des Fahrzeugfahrers über das Objekt, wenn die 3D-Information des Objekts einen ersten Schwellenwert überschreitet und/oder unterschreitet; (iii) Verbessern mindestens einer der folgenden Anwendungen mit der 3D-Information des Objekts: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern; (iv) Neuanordnen zumindest eines Teils des Rundumsichtbilds, insbesondere mittels Verändern, insbesondere Vergrößern und/oder Verkleinern, der Zoom-Stufe des Rundumsichtbilds, zumindest teilweises Hervorheben des Objekts auf dem Rundumsichtbild und/oder zumindest teilweises Isolieren des Objekts auf dem Rundumsichtbild, abhängig von der 3D-Information des Objekts, insbesondere, wenn die 3D-Information des Objekts einen zweiten Schwellenwert überschreitet und/oder unterschreitet; und/oder (v) zumindest teilweises Weiterleiten der 3D-Information des Objekts an mindestens ein fortschrittliches Fahrerassistenzsystem.
  • Die Erfindung löst die Aufgabe gemäß einem zweiten Gesichtspunkt mittels einer Vorrichtung zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, umfassend mindestens einen Prozessor, der ausgelegt ist, die Schritte des Verfahrens gemäß dem ersten Gesichtspunkt der Erfindung auszuführen.
  • Die Erfindung löst die Aufgabe gemäß einem dritten Gesichtspunkt mittels eines Systems zum Erhalten von 3D-Information(en) von Objekten, die in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, umfassend: mindestens eine erste Sensorvorrichtung; mindestens eine zweite Sensorvorrichtung; und mindestens eine Vorrichtung gemäß dem zweiten Gesichtspunkt der Erfindung.
  • In einer Ausführungsform (i) umfasst das System ferner mindestens eine dritte Sensorvorrichtung, vorzugsweise eine Vielzahl von dritten Sensorvorrichtungen; (ii) umfasst das System ferner mindestens ein Fahrerassistenzsystem und/oder mindestens eine Meldevorrichtung; (iii) mindestens einen Vogelperspektivsystemprozessor und/oder Rundumsichtbildprozessor; und/oder (iv) umfasst das System ferner mindestens eine Vorrichtung, die ausgelegt ist, mindestens eine der folgenden Anwendungen auszuführen: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern.
  • In einer weiteren Ausführungsform (i) ist die erste Sensorvorrichtung dazu ausgelegt, zumindest teilweise mindestens ein erstes Bild zu erhalten; (ii) umfasst und/oder stellt die erste Sensorvorrichtung zumindest teilweise mindestens eine erste Kamera, mindestens eine erste Kameraüberwachungssystem- (camera monitor system, cms) -Kamera, mindestens eine erste Spiegelersatzkamera, mindestens eine erste Rückfahrkamera, mindestens eine erste Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen ersten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen ersten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine erste Radarvorrichtung, mindestens eine erste LIDAR-Vorrichtung und/oder mindestens eine erste Ultraschallvorrichtung dar; (iii) umfasst die erste Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse und/oder ist an einer ersten Position an dem Fahrzeug befestigt oder befestigbar; (iv) ist die zweite Sensorvorrichtung dazu ausgelegt, zumindest teilweise mindestens ein zweites Bild zu erhalten; (v) umfasst und/oder stellt die zweite Sensorvorrichtung zumindest teilweise mindestens eine zweite Kamera, mindestens eine zweite Kameraüberwachungssystem(cms)-Kamera, mindestens eine zweite Spiegelersatzkamera, mindestens eine zweite Rückfahrkamera, mindestens eine zweite Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen zweiten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen zweiten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine zweite Radarvorrichtung, mindestens eine zweite LIDAR-Vorrichtung und/oder mindestens eine zweite Ultraschallvorrichtung dar; (vi) umfasst die dritte Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse und/oder ist an einer dritten Position an dem Fahrzeug befestigt oder befestigbar; (vii) die dritte Sensorvorrichtung dazu ausgelegt ist, zumindest teilweise mindestens ein drittes Bild zu erhalten; (viii) umfasst und/oder stellt die dritte Sensorvorrichtung zumindest teilweise mindestens eine dritte Kamera, mindestens eine dritte Kameraüberwachungssystem(cms)-Kamera, mindestens eine dritte Spiegelersatzkamera, mindestens eine dritte Rückfahrkamera, mindestens eine dritte Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen dritten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen dritten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine dritte Radarvorrichtung, mindestens eine dritte LIDAR-Vorrichtung und/oder mindestens eine dritte Ultraschallvorrichtung dar; (ix) die zweite Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse umfasst und/oder an einer zweiten Position an dem Fahrzeug befestigt oder befestigbar ist; und/oder (x) weist die erste Sensorvorrichtung und die zweite Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, weist die erste Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, weist die zweite Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild auf, das mittels der zweiten Sensorvorrichtung erhalten wird, weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild auf, das mittels der dritten Sensorvorrichtung erhalten wird, und/oder weist das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild auf, das mittels der dritten Sensorvorrichtung erhalten wird.
  • Die Erfindung löst die Aufgabe gemäß einem vierten Gesichtspunkt mittels eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, das zumindest teilweise eine Vorrichtung gemäß dem zweiten Gesichtspunkt der Erfindung und/oder ein System gemäß dem dritten Gesichtspunkt der Erfindung umfasst.
  • In einer Ausführungsform ist die erste Sensorvorrichtung zumindest teilweise an einer ersten Position an dem Fahrzeug befestigt, die zweite Sensorvorrichtung zumindest teilweise an einer zweiten Position an dem Fahrzeug befestigt und/oder die dritte Sensorvorrichtung zumindest teilweise an einer dritten Position an dem Fahrzeug befestigt.
  • Somit wurde vorteilhafterweise herausgefunden, dass ein erstes und ein zweites Bild, die mittels einer ersten und zweiten Sensorvorrichtung, insbesondere mittels einer ersten und einer zweiten Kamera erhalten werden, vorteilhafterweise für den Zweck des Bestimmens mindestens einer 3D-Information mindestens eines Objekts, das auf beiden Bildern gezeigt wird, verwendet werden können, wenn die Bildinformation beider Bilder in einem gemeinsamen 3D-Raum kombiniert wird.
  • Hierbei kann der Begriff „gemeinsamer 3D-Raum“ verwendet werden, um ein 3D-Modell zumindest eines Teils der Fahrzeugumgebung zu bezeichnen, wobei das Modell basierend auf mindestens dem ersten und zweiten Bild erzeugt wird.
  • Zum Kombinieren der Informationen in dem gemeinsamen 3D-Raum kann vorteilhafterweise Datenmapping verwendet werden.
  • Hierbei kann der Begriff „Datenmapping“ verwendet werden, um jede Art Mapping eines Pixels eines ersten Bilds auf einen weiteren Pixel eines zweiten Bilds zu bezeichnen, was es somit ermöglicht, 3D-Information(en) in Bezug auf zumindest einen Teil eines Objekts zu erhalten, das Teil der Bilder ist, die die jeweiligen Pixel umfassen.
  • Durch die Erfinder wurde überraschenderweise herausgefunden, dass mittels des gemeinsamen 3D-Raums Objekte identifiziert werden können, die zumindest teilweise auf beiden Bildern gezeigt werden, und zudem in einer sehr komfortablen, stabilen und effizienten Weise mit den jeweiligen Objekten verbundene 3D-Information(en) bestimmt werden kann.
  • Basierend auf der 3D-Information(en) kann mindestens eine Handlung durchgeführt werden, die das Fahrererlebnis verbessert und außerdem die Sicherheit verbessert.
  • Es ist sehr vorteilhaft, dass zwei Bilder ausreichen, um die vorliegende Erfindung zu implementieren. Wobei die Erfinder auch erkannt haben, dass es auch möglich ist, noch mehr als zwei Bilder, d. h. mindestens ein drittes Bild, vorzugsweise eine Vielzahl von dritten Bildern zu verwenden, die mittels mindestens einer, vorzugsweise einer Vielzahl von dritten Sensorvorrichtungen erhalten werden. Indem mehr als zwei Bilder zum Zweck des Erzeugens des gemeinsamen 3D-Raums verwendet werden, kann eine noch höhere Genauigkeit des Datenmodells und den daraus abgeleiteten Informationen erreicht werden, als bereits möglich ist, wenn zwei Bilder die Basis bilden. Die Vielzahl von Bildern kann derart erzeugt werden, dass jede der ersten, zweiten und/oder dritten Sensorvorrichtung jeweils einzelne Bilder liefert und/oder kann eine Vielzahl von Bildern sein, die jeweils, insbesondere als aufeinanderfolgende Bilder, mittels der ersten, zweiten und/oder dritten Sensorvorrichtung erfasst wird.
  • Die Erfinder erkannten auch, dass nahezu jede Art von Bildquelle als die erste und zweite Sensorvorrichtung verwendet werden kann. Somit ist es möglich, sich auf Sensorvorrichtungen zu stützen, die bereits am Fahrzeug vorhanden sind, wie beispielsweise Kameraüberwachungssystem(cms)-Kameras, Spiegelersatzkameras, Rückfahrkameras oder Kameras eines fortschrittlichen Fahrerassistenzsystems des Fahrzeugs. Darüber hinaus ist es möglich, sich auf Bilder zu stützen, die an anderer Stelle verwendet werden, wie beispielsweise ein Vogelperspektivbild oder ein Rundumsichtbild, und somit entsprechende Vogelperspektivbildprozessoren oder Rundumsichtbildprozessoren, die entsprechende Bilder liefern, als eine geeignete Sensorvorrichtung im Sinne der vorliegenden Erfindung zu verwenden. Dies macht zusätzliche Vorrichtungen unnötig und reduziert außerdem die Rechenleistung, da Bilder erneut verwendet werden können, die ohnehin zur Verfügung stehen.
  • Insbesondere wurde herausgefunden, dass Bildverzerrungen, insbesondere aufgrund von Fischaugenlinsen von Kameras, die zum Erhalten von ersten, zweiten und/oder dritten Bildern verwendet werden, mittels geeigneter in der Technik bekannter Algorithmen korrigiert werden können. Somit ist es umso mehr möglich, sich für die Zwecke der vorliegenden Erfindung auf jede beliebige Kamera zu stützen, die an dem Fahrzeug vorgesehen ist.
  • Um den gemeinsamen 3D-Raum zu erzeugen, kann ein Abgleich der Objekte durchgeführt werden, die in beiden, dem ersten und dem zweiten Bild (oder auch in mehr Bildern, wenn mehr als zwei Bilder empfangen werden) gezeigt werden. Die ermöglicht insbesondere, sicherzustellen, dass ein und dasselbe Objekt auch in dem gemeinsamen 3D-Raum nur als einzelnes Objekt erscheint.
  • Basierend auf dem gemeinsamen 3D-Raum ist es vorteilhafterweise möglich, Objekte zu detektieren und/oder 3D-Information(en) von jeweiligen Objekten zu bestimmen, insbesondere auf Basis der Information(en), die mit dem jeweiligen Voxel (3D-Pixel) des gemeinsamen 3D-Raums verknüpft ist. Insbesondere umfasst die 3D-Information(en) eine Tiefeninformation. Diese kann ein relativer oder ein absoluter Wert sein. Die 3D-Information(en) kann zudem oder alternative auch einen Abstandswert umfassen. Dieser Wert kann in Bezug zu einem bestimmten Referenzpunkt angegeben werden. Der Referenzpunkt kann beispielsweise in Bezug auf eine bestimmte Position an oder auf dem Fahrzeug gewählt werden.
  • Außerdem ist es, wenn der gemeinsame 3D-Raum erzeugt wurde, außerdem vorteilhafterweise möglich, die 3D-Information(en) zu verwenden, um zu bestimmen, ob ein bestimmtes Objekt sich zumindest teilweise in mindestens einem Totwinkelbereich eines Rundumsichtbilds befindet. Das Rundumsichtbild kann dann in dem Fall, in dem ein Objekt in dem Totwinkelbereich vorhanden ist, angepasst werden. Dies stellt sicher, dass jedes Objekt, das ein Risiko für das Fahrzeug, den Fahrer, das Objekt selbst oder einer Kombination davon darstellen könnte, zuverlässig zumindest teilweise auf dem Rundumsichtbild gezeigt wird. Vorzugsweise können dieselben Bilder, die zum Erzeugen des Rundumsichtbilds verwendet werden, auch zum Erzeugen des gemeinsamen 3D-Raums verwendet werden, sodass Ressourcen gespart werden.
  • Somit wird ein Multisensorsystem vorgestellt, das insbesondere aus jeder Kamera, die an dem Auto positioniert ist, und mit jedem Linsentyp 3D-Information(en) erzeugen kann. Wenn 3D-Information(en) verfügbar ist, kann diese Information(en) verwendet werden, um den Fahrer z. B. über Objektabstände (z. B. eine Wand während des Parkens, die Höhe von Brücken und Ähnliches) zu informieren. Ein solches System und solche 3D-Information(en) können zudem oder alternativ Informationen von anderen Sensoren und auch die anderen Sensoren ersetzen.
  • Für ein besseres Verständnis der Erfindung in Verbindung mit einigen beispielhaften Abbildungen zeigen die folgenden Zeichnungen Gesichtspunkte der Erfindung, wobei
    • 1a, 1b erste und zweite Bilder zeigen, die eine erste Szene darstellen;
    • 2a, 2b erste und zweite Bilder zeigen, die eine zweite Szene darstellen;
    • 3a, 3b, 3c erste, zweite und dritte Bilder zeigen, die eine dritte Szene darstellen;
    • 4 ein Funktionsdiagramm eines Verfahrens gemäß einer Ausführungsform des ersten Gesichtspunkts der Erfindung zeigt;
    • 5a, 5b, 5c einen gemeinsamen 3D-Raum aus einem ersten, zweiten und dritten Blickwinkel zeigen; und
    • 6 eine schematische Darstellung eines Rundumsichtbilds zeigt.
  • 1a und 1b zeigen jeweils ein erstes und ein zweites Bild, die eine erste Szene darstellen. Die beiden Bilder der ersten Szene wurden auf einem Parkplatz aufgenommen. Das erste Bild, das in 1a gezeigt wird, wird mittels einer ersten Sensorvorrichtung erhalten, die eine erste Kamera umfasst, die an einer ersten Position an einem Fahrzeug befestigt ist. Die erste Position befindet sich oben auf dem Fahrzeug. Das zweite Bild, das in 1b gezeigt wird, wird mittels einer zweiten Sensorvorrichtung erhalten, die eine zweite Kamera umfasst, die an einer zweiten Position an dem Fahrzeug befestigt ist. Die zweite Position befindet sich, in Bezug auf eine Hauptfahrtrichtung, auf der linken Seite des Fahrzeugs, d. h. der Fahrerseite in einem Rechtsverkehrfahrzeug.
  • Die erste Sensorvorrichtung und die zweite Sensorvorrichtung weisen im Wesentlichen das gleiche globale Sichtfeld auf, somit weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild auf, das mittels der zweiten Sensorvorrichtung erhalten wird.
  • 2a und 2b zeigen jeweils ein erstes und ein zweites Bild, die eine zweite Szene umfassen. Die beiden Bilder der zweiten Szene wurden auf einem Parkplatz aufgenommen. Das erste Bild, das in 2a gezeigt wird, wird mittels einer ersten Sensorvorrichtung erhalten, die eine erste Spiegelersatzkamera darstellt, die an einer ersten Position an einem Fahrzeug befestigt ist. Die erste Position befindet sich, in Bezug auf eine Hauptfahrtrichtung, auf der rechten Seite des Fahrzeugs, insbesondere einer Spiegelersatzposition, d. h. auf der Beifahrerseite eines Rechtsverkehrautos. Das zweite Bild, das in 2b gezeigt wird, wird mittels einer zweiten Sensorvorrichtung erhalten, die eine zweite Kamera umfasst, die an einer zweiten Position an dem Fahrzeug befestigt ist. Die zweite Position befindet sich auf der rechten Seite, d. h. der Beifahrerseite, des Fahrzeugs. Die zweite Sensorvorrichtung umfasst eine Fischaugenlinse. Insbesondere ist die zweite Sensorvorrichtung hierbei eine zweite Kamera des fortschrittlichen Fahrerassistenzsystems, z. B. ein Teil eines Vogelperspektivsystems.
  • Offensichtlich weist für die zweite Szene zumindest das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem ersten Bild auf, das mittels der ersten Sensorvorrichtung erhalten wird.
  • 3a, 3b, 3c zeigen jeweils ein erstes Bild, ein zweites Bild und - im Gegensatz zu den vorherigen Szenen außerdem ein drittes Bild, die eine dritte Szene darstellen. Die drei Bilder der dritten Szene wurden auf einer Straße in der Stadt aufgenommen. Das erste Bild, das in 3a gezeigt wird, wird mittels einer ersten Sensorvorrichtung erhalten, die eine erste Spiegelersatzkamera darstellt, die an einer ersten Position an einem Fahrzeug befestigt ist. Die erste Position befindet sich auf der Beifahrerseite des Fahrzeugs, insbesondere einer ersten Spiegelersatzposition. Das zweite Bild, das in 2b gezeigt wird, wird mittels einer zweiten Sensorvorrichtung erhalten, die eine zweite Kamera, insbesondere eine Rückfahrkamera darstellt, die an einer zweiten Position an dem Fahrzeug befestigt ist. Die zweite Position befindet sich oben auf dem Fahrzeug. Das dritte Bild, das in 3c gezeigt wird, wird mittels einer dritten Sensorvorrichtung erhalten, die eine zweite Spiegelersatzkamera darstellt, die an einer dritten Position an einem Fahrzeug befestigt ist. Die dritte Position befindet sich auf der linken Seite des Fahrzeugs, insbesondere einer zweiten Spiegelersatzposition.
  • Die erste Sensorvorrichtung und die zweite Sensorvorrichtung weisen im Wesentlichen das gleiche globale Sichtfeld auf, somit weist das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild auf, das mittels der zweiten Sensorvorrichtung erhalten wird. In analoger Weise weisen die zweite Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld auf, somit weist das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild auf, das mittels der dritten Sensorvorrichtung erhalten wird.
  • 4 zeigt ein Funktionsdiagramm eines Verfahrens 100 zum Erhalten von 3D-Information(en) von Objekten, die in mindestens zwei Bildern gezeigt werden, die in Bezug auf Szene drei wie vorstehend beschrieben mittels der drei Sensoren am Fahrzeug erhalten werden, gemäß einer Ausführungsform des ersten Gesichtspunkts der Erfindung.
  • In Schritten 101, 103 und 105 des Verfahrens 100 werden jeweils das erste, das zweite und das dritte Bild empfangen, die jeweils mittels der ersten, der zweiten und der dritten Sensorvorrichtung erhalten werden. In einem Schritt 107 wird durch Kombinieren von Informationen aus mindestens dem ersten Bild, dem zweiten Bild und dem dritten Bild ein gemeinsamer 3D-Raum erzeugt. D. h., Informationen aus verschiedenen Ansichten werden in dem gemeinsamen 3D-Raum kombiniert.
  • Um den gemeinsamen 3D-Raum zu erzeugen, werden gemeinsame Sichtfelder des ersten, zweiten und dritten Bilds bestimmt. D. h., zur geeigneten Kombination der jeweiligen Bilder in dem gemeinsamen 3D-Raum werden die überlappenden Bereiche des ersten und zweiten, ersten und dritten und zweiten und dritten Bilds bestimmt. Das Erzeugen des gemeinsamen 3D-Raums umfasst ferner das Abgleichen von Objekten, die zumindest teilweise in mindestens zwei Bildern des ersten Bilds, der zweiten Bilds und/oder des dritten Bilds zusammen gezeigt werden. Vorzugsweise wird der Abgleich mittels Erkennung von Bildmerkmalen, insbesondere dem Aufweisen von großen Unterschieden, Verfolgen im Zeitverlauf, bestimmten Bewegungsstrukturen von Objekten und/oder mindestens eines „random sample consensus“ (RANSAC)-basierten Verfahrens durchgeführt.
  • An den Bildern wird keine Verzerrungskorrektur angewandt, da für die Sensorvorrichtungen keine Fischaugenlinsen verwendet werden. Vorzugsweise wurden die Sensorvorrichtungen, insbesondere die Kameras, die für das Verfahren, die Vorrichtung und/oder das System verwendet werden, bereits, insbesondere intern und/oder extern, kalibriert.
  • In einem Schritt 109 des Verfahrens 100 wird mindestens ein Objekt in dem gemeinsamen 3D-Raum identifiziert, wobei das Objekt in dem ersten, zweiten und/oder dritten Bilds gezeigt wird.
  • Hierbei stellt der gemeinsame 3D-Raum ein Modell mindestens eines Teils der Fahrzeugumgebung dar. 5a bis 5c zeigen den gemeinsamen 3D-Raum mit zwei identifizierten Objekten (nämlich, zwei Autos, die auf der rechten Seite des Fahrzeugs parken) jeweils aus einem ersten, zweiten und dritten Blickwinkel.
  • In einem Schritt 111 des Verfahrens 100 wird mindestens eine 3D-Information von mindestens einem der Objekte bestimmt. Insbesondere wird ein Abstand des Objekts in Bezug auf einen Referenzpunkt, der sich am Fahrzeug befindet, bestimmt. In einem Schritt 113 des Verfahrens 100 wird basierend auf der 3D-Information mindestens eine Handlung durchgeführt.
  • Die Handlung, die durchgeführt wird, umfasst das Verbessern mindestens einer der folgenden Anwendungen mit der 3D-Information des Objekts: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern.
  • Ein weiteres Verfahren (für das kein Funktionsdiagramm gezeigt ist), das dem Verfahren 100 wie in Bezug auf 4 beschrieben ähnelt, umfasst einen weiteren Schritt des Erzeugens mindestens eines Rundumsichtbilds mittels eines Rundumsichtbildprozessors. 6 zeigt eine schematische Darstellung des entsprechenden Rundumsichtbilds 201. Das Rundumsichtbild 201 umfasst mindestens einen ersten Bildteil 203, wobei der erste Bildteil erhalten wird mittels Beschneiden eines ersten Bilds 205 entlang mindestens einer ersten Grenze 207, einen zweiten Bildteil 209, wobei der zweite Bildteil 209 erhalten wird mittels Beschneiden eines zweiten Bilds 211 entlang mindestens einer zweiten Grenze 213, einen ersten dritten Bildteil 215, wobei der erste dritte Bildteil 215 erhalten wird mittels Beschneiden eines ersten dritten Bilds 217 entlang mindestens einer ersten dritten Grenze 219, und einen zweiten dritten Bildteil 221, wobei der zweite dritte Bildteil 221 erhalten wird mittels Beschneiden eines zweiten dritten Bilds 223 entlang mindestens einer zweiten dritten Grenze 225.
  • Hierbei umfasst die durchgeführte Handlung ferner den folgenden Schritt: Bestimmen, ob das Objekt sich zumindest teilweise in mindestens einem Totwinkelbereich 227 des Rundumsichtbilds 201 befindet. Das Objekt befindet sich in dem Totwinkelbereich 227, wenn das Objekt sich außerhalb oder teilweise außerhalb des ersten Bildteils 203 und/oder außerhalb oder teilweise außerhalb des zweiten Bildteils 209 befindet.
  • Wenn bestimmt wird, dass das Objekt sich zumindest teilweise in dem Totwinkelbereich 227 befindet, umfasst das Verfahren den weiteren folgenden Schritt: Anpassen mindestens eines Teils 229 der ersten Grenze 207 und/oder mindestens eines Teils 231 der zweiten Grenze 213, um das Objekt in dem ersten Bildteil 203 und/oder in dem zweiten Bildteil 209 einzuschließen.
  • Die in den Ansprüchen, der Beschreibung und den Zeichnungen offenbarten Merkmale können entweder einzeln oder in einer beliebigen Kombination miteinander wesentlich für verschiedene Ausführungsformen der beanspruchten Erfindung sein.
  • Bezugszeichenliste
  • 100
    Verfahren
    101 - 113
    Schritt
    201
    Rundumsichtbild
    203
    Bildteil
    205
    Bild
    207
    Grenze
    209
    Bildteil
    211
    Bild
    213
    Grenze
    215
    Bildteil
    217
    Bild
    219
    Grenze
    221
    Bildteil
    223
    Bild
    225
    Grenze
    227
    Totwinkelbereich
    229
    Grenzteil
    231
    Grenzteil

Claims (10)

  1. Verfahren zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensorvorrichtungen am Fahrzeug erhalten werden, umfassend die folgenden Schritte: Empfangen mindestens eines ersten Bilds, das mittels einer ersten Sensorvorrichtung erhalten wird; Empfangen mindestens eines zweiten Bilds, das mittels einer zweiten Sensorvorrichtung erhalten wird; Erzeugen eines gemeinsamen 3D-Raums durch Kombinieren von Informationen aus mindestens dem ersten Bild und dem zweiten Bild; Identifizieren mindestens eines Objekts in dem gemeinsamen 3D-Raum, wobei das Objekt zumindest teilweise in dem ersten und zumindest teilweise in dem zweiten Bild gezeigt wird; Bestimmen mindestens einer 3D-Information des Objekts; und Durchführen, basierend auf der bestimmten 3D-Information, mindestens einer Handlung.
  2. Verfahren nach Anspruch 1, ferner umfassend die folgenden Schritte: (i) Empfangen mindestens eines dritten Bilds, vorzugsweise einer Vielzahl von dritten Bildern, die mittels mindestens einer dritten Sensorvorrichtung, vorzugsweise mittels einer Vielzahl von dritten Sensorvorrichtungen erhalten werden; (ii) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem ersten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der ersten Sensorvorrichtung; (iii) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem zweiten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der zweiten Sensorvorrichtung; (iv) Anwenden von Verzerrungskorrektur, insbesondere Linsenverzerrungskorrektur, zumindest teilweise an dem dritten Bild, insbesondere basierend auf mindestens einem vorgegebenen Parameter, insbesondere einem Linsenparameter, der dritten Sensorvorrichtung; und/oder (v) zumindest teilweises Empfangen eines Rundumsichtbilds, zumindest teilweises Erzeugen mindestens eines Rundumsichtbilds mittels eines Rundumsichtbildprozessors, zumindest teilweises Erzeugen mindestens eines Rundumsichtbilds für mindestens ein Fahrerassistenzsystem und/oder zumindest teilweises Anzeigen mindestens eines Rundumsichtbilds durch mindestens ein Fahrerassistenzsystem, wobei insbesondere das Rundumsichtbild zumindest teilweise auf mindestens dem ersten Bild, dem zweiten Bild und/oder dem dritten Bild basiert.
  3. Verfahren nach einem der vorangehenden Ansprüche, wobei (i) das Erzeugen des gemeinsamen 3D-Raums ferner den folgenden Schritt umfasst: Durchführen von 3D-Datenmapping, insbesondere zumindest teilweise des ersten, zweiten und/oder dritten Bilds, und/oder Bestimmen mindestens eines Teils von gemeinsamen Sichtfeldern der jeweiligen Bilder; (ii) das Erzeugen des gemeinsamen 3D-Raums ferner den folgenden Schritt umfasst: Abgleichen von Objekten, zumindest des Objekts, das zumindest teilweise in dem ersten Bild, in dem zweiten Bild und/oder dem dritten Bild gezeigt wird, insbesondere mittels (a) Erkennung von Bildmerkmalen, insbesondere dem Aufweisen von großen Unterschieden, (b) Verfolgen im Zeitverlauf, (c) bestimmten Bewegungsstrukturen von Objekten und/oder (d) mindestens eines „random sample consensus“ (RANSAC)-basierten Verfahrens; (iii) der gemeinsame 3D-Raum zumindest teilweise ein Modell mindestens eines Teils der Fahrzeugumgebung, insbesondere mindestens eines Teils des Fahrzeugumfelds ist, umfasst und/oder darstellt; (iv) die 3D-Information zumindest teilweise basierend auf dem gemeinsamen 3D-Raum bestimmt wird; (v) die 3D-Information zumindest teilweise mindestens eine Tiefeninformation und/oder einen Abstand umfasst; (vi) der Abstand ein Abstand des Objekts ist, der in Bezug auf mindestens einen Referenzpunkt gemessen wird, insbesondere mindestens einem Referenzpunkt, der sich zumindest teilweise an oder auf dem Fahrzeug befindet, und/oder (vii) das Rundumsichtbild zumindest teilweise Folgendes umfasst: mindestens einen ersten Bildteil, wobei der erste Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: zumindest teilweises Beschneiden des ersten Bilds entlang mindestens einer ersten Grenze, mindestens einen zweiten Bildteil, wobei der zweite Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: zumindest teilweises Beschneiden des zweiten Bilds entlang mindestens einer zweiten Grenze, und/oder mindestens einen dritten Bildteil, wobei der dritte Bildteil zumindest teilweise erhalten wird mittels mindestens des folgenden Schritts, umfassend: Beschneiden des dritten Bilds entlang mindestens einer dritten Grenze.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei das Durchführen der Handlung die folgenden Schritte umfasst: (i) Bestimmen, ob sich das Objekt zumindest teilweise in mindestens einem Totwinkelbereich des Rundumsichtbilds befindet, wobei das Objekt sich insbesondere in dem Totwinkelbereich befindet, wenn das Objekt sich außerhalb und/oder teilweise außerhalb des ersten Bildteils und/oder außerhalb und/oder teilweise außerhalb des zweiten Bildteils befindet; und vorzugsweise in Reaktion auf die Bestimmung, dass das Objekt sich zumindest teilweise in dem Totwinkelbereich befindet, insbesondere ferner umfassend den folgenden Schritt: Anpassen mindestens eines Teils der ersten Grenze und/oder der zweiten Grenze, um das Objekt zumindest teilweise in dem ersten Bildteil und/oder in dem zweiten Bildteil einzuschließen; (ii) Auslösen einer Meldevorrichtung zum Informieren des Fahrzeugfahrers über das Objekt, wenn die 3D-Information des Objekts einen ersten Schwellenwert überschreitet und/oder unterschreitet; (iii) Verbessern mindestens einer der folgenden Anwendungen mit der 3D-Information des Objekts: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern; (iv) Neuanordnen zumindest eines Teils des Rundumsichtbilds, insbesondere mittels Verändern, insbesondere Vergrößern und/oder Verkleinern, der Zoom-Stufe des Rundumsichtbilds, zumindest teilweises Hervorheben des Objekts auf dem Rundumsichtbild und/oder zumindest teilweises Isolieren des Objekts auf dem Rundumsichtbild, abhängig von der 3D-Information des Objekts, insbesondere, wenn die 3D-Information des Objekts einen zweiten Schwellenwert überschreitet und/oder unterschreitet; und/oder (v) zumindest teilweises Weiterleiten der 3D-Information des Objekts an mindestens ein fortschrittliches Fahrerassistenzsystem.
  5. Vorrichtung zum Erhalten von 3D-Information(en) von Objekten, die zumindest teilweise in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, umfassend mindestens einen Prozessor, der ausgelegt ist, die Schritte des Verfahrens nach einem der vorangehenden Ansprüche auszuführen.
  6. System zum Erhalten von 3D-Information(en) von Objekten, die in mindestens zwei Bildern gezeigt werden, die mittels mindestens zwei Sensoren am Fahrzeug erhalten werden, umfassend: mindestens eine erste Sensorvorrichtung; mindestens eine zweite Sensorvorrichtung; und mindestens eine Vorrichtung nach Anspruch 5;
  7. System nach Anspruch 6, wobei (i) das System ferner mindestens eine dritte Sensorvorrichtung, vorzugsweise eine Vielzahl von dritten Sensorvorrichtungen umfasst; (ii) das System ferner mindestens ein Fahrerassistenzsystem und/oder mindestens eine Meldevorrichtung umfasst; (iii) mindestens einen Vogelperspektivsystemprozessor und/oder Rundumsichtbildprozessor; und/oder (iv) das System ferner mindestens eine Vorrichtung umfasst, die ausgelegt ist, mindestens eine der folgenden Anwendungen auszuführen: Rundumsichtanwendung, Parkanwendung, insbesondere bei Abständen zwischen 1,5 Metern und 2 Metern, Fernsichtanwendung, insbesondere bei mehr als 20 Metern.
  8. System nach einem der vorangehenden Ansprüche, wobei (i) die erste Sensorvorrichtung dazu ausgelegt ist, zumindest teilweise mindestens ein erstes Bild zu erhalten; (ii) die erste Sensorvorrichtung zumindest teilweise mindestens eine erste Kamera, mindestens eine erste Kameraüberwachungssystem(cms)-Kamera, mindestens eine erste Spiegelersatzkamera, mindestens eine erste Rückfahrkamera, mindestens eine erste Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen ersten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen ersten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine erste Radarvorrichtung, mindestens eine erste LIDAR-Vorrichtung und/oder mindestens eine erste Ultraschallvorrichtung umfasst und/oder darstellt; (iii) die erste Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse umfasst und/oder an einer ersten Position an dem Fahrzeug befestigt oder befestigbar ist; (iv) die zweite Sensorvorrichtung dazu ausgelegt ist, zumindest teilweise mindestens ein zweites Bild zu erhalten; (v) die zweite Sensorvorrichtung zumindest teilweise mindestens eine zweite Kamera, mindestens eine zweite Kameraüberwachungssystem(cms)-Kamera, mindestens eine zweite Spiegelersatzkamera, mindestens eine zweite Rückfahrkamera, mindestens eine zweite Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen zweiten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen zweiten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine zweite Radarvorrichtung, mindestens eine zweite LIDAR-Vorrichtung und/oder mindestens eine zweite Ultraschallvorrichtung umfasst und/oder darstellt; (vi) die dritte Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse umfasst und/oder an einer dritten Position an dem Fahrzeug befestigt oder befestigbar ist; (vii) die dritte Sensorvorrichtung dazu ausgelegt ist, zumindest teilweise mindestens ein drittes Bild zu erhalten; (viii) die dritte Sensorvorrichtung zumindest teilweise mindestens eine dritte Kamera, mindestens eine dritte Kameraüberwachungssystem(cms)-Kamera, mindestens eine dritte Spiegelersatzkamera, mindestens eine dritte Rückfahrkamera, mindestens eine dritte Kamera des fortschrittlichen Fahrerassistenzsystems des Fahrzeugs, mindestens einen dritten Vogelperspektivbildprozessor, der mindestens ein Vogelperspektivbild bereitstellt, mindestens einen dritten Rundumsichtbildprozessor, der mindestens ein Rundumsichtbild bereitstellt, mindestens eine dritte Radarvorrichtung, mindestens eine dritte LIDAR-Vorrichtung und/oder mindestens eine dritte Ultraschallvorrichtung umfasst und/oder darstellt; (ix) die zweite Sensorvorrichtung zumindest teilweise mindestens eine Fischaugenlinse umfasst und/oder an einer zweiten Position an dem Fahrzeug befestigt oder befestigbar ist; und/oder (x) die erste Sensorvorrichtung und die zweite Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld aufweisen, die erste Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld aufweisen, die zweite Sensorvorrichtung und die dritte Sensorvorrichtung im Wesentlichen das gleiche globale Sichtfeld aufweisen, das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem zweiten Bild aufweist, das mittels der zweiten Sensorvorrichtung erhalten wird, das erste Bild, das mittels der ersten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild aufweist, das mittels der dritten Sensorvorrichtung erhalten wird, und/oder das zweite Bild, das mittels der zweiten Sensorvorrichtung erhalten wird, einen großen Überschneidungsbereich mit dem dritten Bild aufweist, das mittels der dritten Sensorvorrichtung erhalten wird.
  9. Fahrzeug, insbesondere Kraftfahrzeug, zumindest teilweise umfassend eine Vorrichtung nach Anspruch 5 und/oder ein System nach einem der vorangehenden Ansprüche 6 bis 8.
  10. Fahrzeug nach Anspruch 9, wobei die erste Sensorvorrichtung zumindest teilweise an einer ersten Position an dem Fahrzeug befestigt ist, die zweite Sensorvorrichtung zumindest teilweise an einer zweiten Position an dem Fahrzeug befestigt ist und/oder die dritte Sensorvorrichtung zumindest teilweise an einer dritten Position an dem Fahrzeug befestigt ist.
DE102018108751.9A 2018-04-12 2018-04-12 Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten Active DE102018108751B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018108751.9A DE102018108751B4 (de) 2018-04-12 2018-04-12 Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
GB1904934.5A GB2574697B (en) 2018-04-12 2019-04-08 Method, system and device of obtaining 3D-information of objects
CN201910289596.4A CN110378836B (zh) 2018-04-12 2019-04-11 获取对象的3d信息的方法、系统和设备
US16/381,732 US10733464B2 (en) 2018-04-12 2019-04-11 Method, system and device of obtaining 3D-information of objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018108751.9A DE102018108751B4 (de) 2018-04-12 2018-04-12 Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten

Publications (2)

Publication Number Publication Date
DE102018108751A1 true DE102018108751A1 (de) 2019-10-17
DE102018108751B4 DE102018108751B4 (de) 2023-05-04

Family

ID=66809418

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018108751.9A Active DE102018108751B4 (de) 2018-04-12 2018-04-12 Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten

Country Status (4)

Country Link
US (1) US10733464B2 (de)
CN (1) CN110378836B (de)
DE (1) DE102018108751B4 (de)
GB (1) GB2574697B (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6900609B2 (ja) * 2016-12-06 2021-07-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 広角画像を修正するシステム及び方法
WO2020068960A1 (en) * 2018-09-26 2020-04-02 Coherent Logix, Inc. Any world view generation
CN113378867B (zh) * 2020-02-25 2023-08-22 北京轻舟智航智能技术有限公司 一种异步数据融合的方法、装置、存储介质及电子设备
US11757997B2 (en) * 2021-01-19 2023-09-12 Seek Xr, Inc. Systems and methods for facilitating shared extended reality experiences

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011077143A1 (de) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Fahrzeugkamerasystem und Verfahren zur Bereitstellung eines lückenlosen Bildes der Fahrzeugumgebung
DE102014107156A1 (de) * 2013-05-23 2014-11-27 GM Global Technology Operations LLC Verbesserte perspektivische Bilderzeugung in einem Frontbordstein-Visualisierungssystem
DE102013018543A1 (de) * 2013-11-05 2015-05-07 Mekra Lang Gmbh & Co. Kg Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
DE102015223176A1 (de) * 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1696669B1 (de) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Gerät zur Fahrzeugumgebungsbeobachtung
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
TWI361396B (en) * 2008-01-18 2012-04-01 Univ Nat Chiao Tung Image synthesis system for a vehicle and the manufacturing method thereof mage synthesis device and method
US8106755B1 (en) * 2008-02-14 2012-01-31 Epsilon Lambda Electronics Corp. Triple-function vehicle safety sensor system
JP5165631B2 (ja) * 2009-04-14 2013-03-21 現代自動車株式会社 車両周囲画像表示システム
CN102045546B (zh) * 2010-12-15 2013-07-31 广州致远电子股份有限公司 一种全景泊车辅助系统
US20150077560A1 (en) * 2013-03-22 2015-03-19 GM Global Technology Operations LLC Front curb viewing system based upon dual cameras
US20150109444A1 (en) * 2013-10-22 2015-04-23 GM Global Technology Operations LLC Vision-based object sensing and highlighting in vehicle image display systems
JP5846268B1 (ja) * 2014-08-12 2016-01-20 株式会社リコー 画像処理システム、画像処理装置、プログラムおよび撮像システム
DE102014012250B4 (de) * 2014-08-19 2021-09-16 Adc Automotive Distance Control Systems Gmbh Verfahren zur Bilderverarbeitung und -darstellung
US9754416B2 (en) * 2014-12-23 2017-09-05 Intel Corporation Systems and methods for contextually augmented video creation and sharing
US9866752B2 (en) * 2015-06-02 2018-01-09 Qualcomm Incorporated Systems and methods for producing a combined view from fisheye cameras
US10040394B2 (en) * 2015-06-17 2018-08-07 Geo Semiconductor Inc. Vehicle vision system
CN106994936A (zh) * 2016-01-22 2017-08-01 广州求远电子科技有限公司 一种3d全景泊车辅助系统
DE102017201000A1 (de) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Verfahren zum Kombinieren einer Vielzahl von Kamerabildern

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011077143A1 (de) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Fahrzeugkamerasystem und Verfahren zur Bereitstellung eines lückenlosen Bildes der Fahrzeugumgebung
DE102014107156A1 (de) * 2013-05-23 2014-11-27 GM Global Technology Operations LLC Verbesserte perspektivische Bilderzeugung in einem Frontbordstein-Visualisierungssystem
DE102013018543A1 (de) * 2013-11-05 2015-05-07 Mekra Lang Gmbh & Co. Kg Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
DE102015223176A1 (de) * 2015-11-24 2017-05-24 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges

Also Published As

Publication number Publication date
GB2574697A (en) 2019-12-18
CN110378836A (zh) 2019-10-25
DE102018108751B4 (de) 2023-05-04
US10733464B2 (en) 2020-08-04
GB201904934D0 (en) 2019-05-22
GB2574697B (en) 2021-10-20
CN110378836B (zh) 2021-09-24
US20190318178A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
DE102013223039B4 (de) Vorrichtung und Verfahren zum Bereitstellen eines AVM-Bildes
DE102008031784B4 (de) Verfahren und Vorrichtung zur Verzerrungskorrektur und Bildverbesserung eines Fahrzeugrückblicksystems
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
DE102010035772B4 (de) System und Verfahren zum Liefern von Leitinformation für einen Fahrer eines Fahrzeugs
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE102018108751B4 (de) Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102015105248A1 (de) Erzeugen eines bildes von der umgebung eines gelenkfahrzeugs
DE102013220669A1 (de) Dynamische Rückspiegelanzeigemerkmale
DE102013205882A1 (de) Verfahren und Vorrichtung zum Führen eines Fahrzeugs im Umfeld eines Objekts
EP3607740B1 (de) Kameravorrichtung und verfahren zur erfassung eines umgebungsbereichs eines fahrzeugs
DE102010042026B4 (de) Verfahren zum Erzeugen eines Abbildes mindestens eines Objekts in einer Umgebung eines Fahrzeugs
DE112016000689T5 (de) Kameraparametereinstellvorrichtung
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102013220477A1 (de) Verfahren zur Korrektur einer bildlichen Darstellung einer Fahrzeugumgebung
EP2500216A1 (de) Verfahren und Vorrichtung für ein bildgebendes Fahrerassistenzsystem
DE102016104731A1 (de) Verfahren zum Detektieren eines Rolling-Shutter-Effekts in Bildern eines Umgebungsbereichs eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102013224954A1 (de) Verfahren und Vorrichtung zum Erzeugen einer Warnung mittels zweier durch Kameras erfasster Bilder einer Fahrzeugumgebung
DE102017123228A1 (de) Verfahren zum Klassifizieren eines Objektpunkts als statisch oder dynamisch, Fahrerassistenzsystem und Kraftfahrzeug
WO2017198429A1 (de) Ermittlung von fahrzeugumgebungsdaten
EP3073446B1 (de) Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
DE102013220013A1 (de) Abbildungsflächenmodellierung für die Kameramodellierung und für die Synthese virtueller Ansichten
DE102020107949A1 (de) Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren
DE102017104957A1 (de) Verfahren zum Bestimmen einer Bewegung von zueinander korrespondierenden Bildpunkten in einer Bildsequenz aus einem Umgebungsbereich eines Kraftfahrzeugs, Auswerteeinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final