DE102014206677A1 - Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges - Google Patents

Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges Download PDF

Info

Publication number
DE102014206677A1
DE102014206677A1 DE102014206677.8A DE102014206677A DE102014206677A1 DE 102014206677 A1 DE102014206677 A1 DE 102014206677A1 DE 102014206677 A DE102014206677 A DE 102014206677A DE 102014206677 A1 DE102014206677 A1 DE 102014206677A1
Authority
DE
Germany
Prior art keywords
camera
image
infrared
vehicle
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014206677.8A
Other languages
English (en)
Inventor
Leo Vepa
Michael Helmle
Jose Domingo Esparza Garcia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014206677.8A priority Critical patent/DE102014206677A1/de
Publication of DE102014206677A1 publication Critical patent/DE102014206677A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Die vorliegende Erfindung betrifft ein Kamerasystem zum Erfassen eines Umfeldes eines Fahrzeuges (1), umfasst eine erste Kamera (2), die eingerichtet ist, ein erstes Bild zu erfassen, das einen ersten Umgebungsbereich abbildet, eine zweite Kamera (4), die eingerichtet ist, ein zweites Bild zu erfassen, das einen zweiten Umgebungsbereich abbildet, wobei sich der erste Umgebungsbereich und der zweite Umgebungsbereich in einem Überschneidungsbereich überschneiden, eine erste Infrarotkamera (3), die im Bereich der ersten Kamera (2) angeordnet ist, und die eingerichtet ist, ein erstes Infrarotbild zu erfassen, das zumindest den Überschneidungsbereich abbildet, eine zweite Infrarotkamera (5), die im Bereich der zweiten Kamera (4) angeordnet ist, und die eingerichtet ist, ein zweites Infrarotbild zu erfassen, das zumindest den Überschneidungsbereich abbildet, und eine Rekonstruktionseinheit (6), die eingerichtet ist, ein dreidimensionales Modell des Überschneidungsbereiches basierend auf dem ersten Bild und dem zweiten Bild zu erstellen, wobei ein Bezug zwischen dem ersten und dem zweiten Bild hergestellt wird, indem Objekte (7) aus dem ersten Bild mittels des ersten und des zweiten Infrarotbildes in dem zweiten Bild erkannt werden.

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein Kamerasystem zum Erfassen eines Umfeldes eines Fahrzeuges.
  • Solche Kamerasysteme werden oftmals in Fahrassistenzsystemen eingesetzt. Fahrassistenzsysteme sind darauf ausgelegt, einen Fahrer eines Fahrzeuges beim Führen des Fahrzeuges zu unterstützen.
  • Diese Unterstützung kann auf folgenden Arten erfolgen:
    • – Darstellen eines Nahbereiches im Umfeld des Fahrzeuges für den Fahrer, um Zusammenstöße mit Hindernissen zu vermeiden, die nicht in einem aktuellen Blickfeld des Fahrers liegen,
    • – Übernahme einiger Aufgaben des Fahrers, um den Komfort beim Führen des Fahrzeuges zu erhöhen,
    • – Überwachen des Fahrers beim Führen des Fahrzeuges und Eingreifen im Falle einer gefährlichen Situation, und/oder
    • – komplettes Übernehmen der Fahrzeugsteuerung, wobei kein Fahrer an Bord des Fahrzeuges mehr benötigt wird.
  • Dabei ist insbesondere ein Erkennen von Objekten im Nahbereich des Fahrzeuges von Bedeutung.
  • Kamerasysteme, die in der Lage sind Abstände zu anderen Fahrzeugen oder zu Objekten im Allgemeinen zu messen, greifen dabei üblicherweise auf Kamerapaare zurück, die oftmals hinter der Windschutzscheibe oder im Kofferraumdeckel angeordnet sind und jeweils ein Stereokamerasystem bilden.
  • Neuerdings gibt es noch eine weitere Art von Kamerasystemen: sogenannte Surround View Systeme. Diese sind von wachsender Bedeutung in der Automobilindustrie und können für unterschiedliche Anwendungen herangezogen werden. Insbesondere umfassen solche Surround View Systeme mehrere Weitwinkelkameras, die um das Fahrzeug herum angeordnet sind, um ein möglichst weites Blickfeld zu erfassen.
  • Auch die Kameras eines solchen Surround View Systeme können ein Stereokamerasystem bilden. Soll ein Abstand zu einem Objekt ermittelt werden, oder ein dreidimensionales Modell des Umfeldes eines Fahrzeuges erstellt werden, so ist es notwendig, Objekte die aus unterschiedlichen Blickwinkeln der einzelnen Kameras aufgenommen wurden in den Bildern beider Kameras wiederzufinden. Aufgrund der großen Stereobasis, also dem großen Abstand der einzelnen Kameras des Surround View Systeme, kann ein Objekt im Nahbereich des Fahrzeuges aus den unterschiedlichen Blickwinkeln der einzelnen Kameras sehr unterschiedlich aussehen. Somit wird es insbesondere bei Surround View Systemen schwierig, gemeinsame Merkmale in den Bildern der einzelnen Kameras zu erkennen. Dies gilt insbesondere dann, wenn sich dieses Objekt nahe an dem Fahrzeug befindet.
  • Offenbarung der Erfindung
  • Das erfindungsgemäße Kamerasystem zum Erfassen eines Umfeldes eines Fahrzeuges umfasst eine erste Infrarotkamera, die eingerichtet ist, ein erstes Infrarotbild zu erfassen, das einen ersten Umgebungsbereich abbildet, eine zweite Infrarotkamera, die eingerichtet ist, ein zweites Infrarotbild zu erfassen, das einen zweiten Umgebungsbereich abbildet, wobei sich der erste Umgebungsbereich und der zweite Umgebungsbereich in einem Überschneidungsbereich überschneiden, eine Rekonstruktionseinheit, die eingerichtet ist, ein dreidimensionales Modell des Überschneidungsbereiches basierend auf dem ersten Infrarotbild und dem zweiten Infrarotbild zu erstellen.
  • Das erfindungsgemäße Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges umfasst ein Erfassen eines erstes Infrarotbildes mit einer ersten Infrarotkamera, das einen ersten Umgebungsbereich abbildet, ein Erfassen eines zweites Infrarotbildes mit einer zweiten Infrarotkamera, das einen zweiten Umgebungsbereich abbildet, wobei sich der erste Umgebungsbereich und der zweite Umgebungsbereich in einem Überschneidungsbereich überschneiden, und ein Erstellen eines dreidimensionalen Modells des Überschneidungsbereiches basierend auf dem ersten Infrarotbild und dem zweiten Infrarotbild.
  • Es wird somit eine 3D-Rekonstruktion eines Nahbereichs des Fahrzeuges ermöglicht. Das Erscheinungsbild eines Objektes, welches zwischen zwei Kameras liegt, ist für jede der beiden Kameras unterschiedlich, da das Objekt von zwei unterschiedlichen Seiten betrachtet wird. Die Signatur des Objektes im Infrarotbereich ändert sich hingegen durch die unterschiedlichen Blickwinkel nur geringfügig. Durch die gesteigerte Ähnlichkeit des Objektes in unterschiedlichen Bildern wird die Zuverlässigkeit beim Erkennen eines Objektes in beiden Bildern erhöht bzw. erst ermöglicht. Gleichzeitig wird die Genauigkeit der 3D-Rekonstruktion und somit die Genauigkeit eines damit errechneten dreidimensionalen Modelles im Nah- und Fernbereich erhöht, da ein deutlich vergrößerter Abstand zwischen den beiden Kameras eines Stereokamerasystems ermöglicht wird.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • Es ist vorteilhaft, wenn die erste Infrarotkamera und die zweite Infrarotkamera Wärmebildkameras sind. Damit wird eine besonders effiziente und zuverlässige Wiedererkennung einzelner Objekte in unterschiedlichen Bildern ermöglicht, da Wärmesignaturen weniger von einem Betrachtungswinkel eines Objektes abhängen als optische Merkmale. Zudem wird eine besonders zuverlässige Darstellung von Objekten in dem Fahrzeugumfeld ermöglicht, die von besonderer Relevanz beim Führen eines Fahrzeuges sind, da diese meist durch eine erhöhte Wärmeemission gekennzeichnet sind (z.B. Passanten, Tiere oder andere Fahrzeuge). Ferner zeichnet sich ein solches System durch eine hohe Zuverlässigkeit bei schlechten Sichtverhältnissen aus.
  • Ebenso vorteilhaft ist es, wenn die räumliche Position eines Objektes in dem Überschneidungsbereich gegenüber dem Fahrzeug mittels der Lage des Objektes in dem ersten und dem zweiten Infrarotbild und der räumlichen Anordnung der Infrarotkameras zueinander bestimmt wird. Somit können zusätzliche und äußerst zuverlässige Abstandsinformationen gewonnen werden, die nicht durch sichtbare optische Effekte negativ beeinflusst werden. Es wird eine tatsächliche Lage des Objektes gegenüber dem Fahrzeug ermittelt. Ferner ist es vorteilhaft, wenn das erfindungsgemäße Kamerasystem eine erste Kamera umfasst, die eingerichtet ist, ein erstes Bild zu erfassen, das den Überschneidungsbereich zumindest teilweise abbildet, und eine zweite Kamera umfasst, die eingerichtet ist, ein zweites Bild zu erfassen, das den Überschneidungsbereich zumindest teilweise abbildet, wobei die Rekonstruktionseinheit ferner dazu eingerichtet ist, das dreidimensionales Modell des Überschneidungsbereiches basierend auf dem ersten Bild und dem zweiten Bild zu erweitern, wobei ein Bezug zwischen dem ersten und dem zweiten Bild hergestellt oder geprüft wird, indem Objekte aus dem ersten Bild mittels des ersten und des zweiten Infrarotbildes in dem zweiten Bild erkannt werden. Somit wird es ermöglicht dem dreidimensionalen Modell realistische Texturen aus den Bildern der Kameras zuzuordnen. Ferner können Bereiche in denen die Auflösung der Infrarotkameras nicht ausreichend ist, was insbesondere in größeren Entfernungen zu dem Fahrzeug der Fall ist, durch eine Triangulation von Objekten in den Bildern der Kameras abgedeckt werden.
  • Des Weiteren ist es vorteilhaft, wenn die erste Kamera und die erste Infrarotkamera das erste Bild und das erste Infrarotbild durch eine gemeinsame Kameraoptik erfassen, und/oder die zweite Kamera und die zweite Infrarotkamera das zweite Bild und das zweite Infrarotbild durch eine gemeinsame Kameraoptik erfassen. Somit wird die Zuordnung von Objekten, die in dem ersten Infrarotbild abgebildet sind, zu Objekten, die in dem ersten Bild abgebildet sind präziser, da diese jeweils aus einem gemeinsamen Blickwinkel betrachtet werden. Ebenso wird die Zuordnung von Objekten, die in dem zweiten Infrarotbild abgebildet sind, zu Objekten, die in dem zweiten Bild abgebildet sind, präziser, da diese jeweils aus einem gemeinsamen Blickwinkel betrachtet werden.
  • Insbesondere ist es vorteilhaft, wenn ein Bildsensor der ersten Kamera und der ersten Infrarotkamera ein gemeinsamer Bildsensor ist, und/oder ein Bildsensor der zweiten Kamera und der zweiten Infrarotkamera ein gemeinsamer Bildsensor ist. Somit wird die Zuordnung von Objekten, die in dem ersten Infrarotbild abgebildet sind, zu Objekten, die in dem ersten Bild abgebildet sind, und die Zuordnung von Objekten, die in dem zweiten Infrarotbild abgebildet sind, zu Objekten, die in dem zweiten Bild abgebildet sind, noch präziser, da eine Zuordnung auf Basis der aufnehmenden Pixel erfolgen kann.
  • Ferner ist es vorteilhaft, wenn die erste Kamera und die erste Infrarotkamera in einer Kameraeinheit mit einer gemeinsamen Optik und einem gemeinsamen Bildsensor kombiniert sind, und/oder die zweite Kamera und die zweite Infrarotkamera in einer Kameraeinheit mit einer gemeinsamen Optik und einem gemeinsamen Bildsensor kombiniert sind. Die Bildsignale der jeweils kombinierten Kameras werden lediglich durch einen entsprechenden Filter getrennt. Dadurch wird die benötigte Hardware reduziert. Die Zuverlässigkeit bei einer Zuordnung von Bildbereichen der ersten Kamera zu Bildbereichen der ersten Infrarotkamera wird zudem erhöht, da Ungenauigkeiten in der Optik oder dem Bildsensor Einfluss auf beide der miteinander kombinierten Kameras nehmen und somit ausgeglichen werden. Selbiges gilt für eine Zuordnung von Bildbereichen der zweiten Kamera zu Bildbereichen der zweiten Infrarotkamera.
  • Zudem ist es von Vorteil, wenn die erste Kamera und die zweite Kamera zwei separat voneinander angeordnete Mono-Kameras sind. Insbesondere bei einer solchen separaten Anordnung der ersten und der zweiten Kamera ist eine Erkennung gemeinsamer optischer Merkmale in den Bildern der beiden Kameras schwierig und somit eine erhöhte Zuverlässigkeit bei der Wiedererkennung einzelner Objekte in unterschiedlichen Bildern vorteilhaft.
  • Kurze Beschreibung der Zeichnungen
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:
  • 1 ein Fahrzeug mit einem Kamerasystem zum Erfassen eines Umfeldes eines Fahrzeuges in einer ersten Ausführungsform der Erfindung,
  • 2 ein Fahrzeug mit einem Kamerasystem zum Erfassen eines Umfeldes eines Fahrzeuges in einer zweiten Ausführungsform der Erfindung, und
  • 3 ein beispielhaftes Bild einer Infrarotkamera.
  • Ausführungsformen der Erfindung
  • Die vorliegende Erfindung nutzt Infrarotkameras, um das Problem des Widererkennens eine Objekts 7 in unterschiedlichen Bildern zu lösen, wenn diese das Objekt 7 aus zwei unterschiedlichen Betrachtungswinkeln abbilden.
  • Kameras, die in einem sichtbaren Bereich arbeiten, empfangen Licht, welches durch Objekte reflektiert wird, aber von verschiedenen Lichtquellen in der Umgebung der Objekte ausgesendet wird. Dies ist eines der zugrundeliegenden Probleme, aufgrund derer Objekte sehr unterschiedlich aussehen, wenn diese durch Kameras, die in einem sichtbaren Bereich arbeiten, aus unterschiedlichen Positionen betrachtet werden, wobei natürlich können auch einzelne Bereiche der Oberfläche des Objektes unterschiedlich zueinander sein können. Arbeitet eine Kamera im Infrarotbereich, so wird das „Licht“ von dem Objekt selbst abgestrahlt, was zu einer deutlich besser kontrollierbaren Situation führt. Zusätzlich können diese durch ein aktives aussenden von „Licht“, also entsprechender Infrarotstrahlung, aktiv beleuchtet werden.
  • Infrarotkameras sind dazu in der Lage, zusätzliche Eigenschaften eines Objekts sichtbar zu machen, die mit anderen Kameras nicht erkannt werden, wie z.B. die von einem Objekt abgestrahlte Energie. Diese Energie wird genutzt, um ein Merkmal in zwei aus unterschiedlichen Blickwinkeln erfassten Bildern zu erkennen. Dieses Erkennen eines Merkmales in zwei erfassten Bildern wird in der 3D-Bildverarbeitung auch als Matching bezeichnet. Unter anderem ermöglicht es eine 3D Rekonstruktion von Objekten.
  • 1 zeigt ein Fahrzeug 1 mit einem Kamerasystem zum Erfassen eines Umfeldes des Fahrzeuges 1 in einer ersten Ausführungsform der Erfindung.
  • Im Frontbereich des Fahrzeuges 1 ist eine erste Infrarotkamera 3 angeordnet. Die erste Infrarotkamera 3 ist entlang einer Längsachse des Fahrzeuges 1 nach vorne gerichtet. Die erste Infrarotkamera 3 erfasst ein erstes Infrarotbild, das einen ersten Umgebungsbereich 8 des Fahrzeuges 1 abbildet. Der erste Umgebungsbereich 8 ist somit ein Bereich, der vor dem Fahrzeug 1 liegt.
  • Im rechten Seitenspiegel des Fahrzeuges 1 ist eine zweite Infrarotkamera 5 angeordnet. Die zweite Infrarotkamera 5 ist entlang einer Querachse des Fahrzeuges 1 nach rechts gerichtet. Die zweite Infrarotkamera 3 erfasst ein zweites Infrarotbild, das einen zweiten Umgebungsbereich 9 des Fahrzeuges 1 abbildet. Der zweite Umgebungsbereich 9 ist somit ein Bereich, der rechts neben dem Fahrzeug 1 liegt.
  • Die erste Infrarotkamera 3 und die zweite Infrarotkamera 5 sind Wärmebildkameras. Das bedeutet, dass die erste Infrarotkamera 3 und die zweite Infrarotkamera 5 für einen besonders langwelligen Bereich des Infrarotspektrums empfindlich sind.
  • Die Ausrichtungen der Infrarotkameras 3, 5 sind derart gewählt, dass ein Überschneidungsbereich 10, der in der hier beschriebenen ersten Ausführungsform rechts vor dem Fahrzeug 1 liegt, sowohl in dem ersten Infrarotbild als auch dem zweiten Infrarotbild abgebildet wird.
  • Die Infrarotkamera 3 und die zweite Infrarotkamera 5 sind mit jeweils einer Datenleitung mit einer Rekonstruktionseinheit 6 gekoppelt. Über diese Datenleitungen werden das erste Infrarotbild und das zweite Infrarotbild an die Rekonstruktionseinheit 6 übertragen.
  • Die Rekonstruktionseinheit 6 ist eine elektronische Recheneinheit. Die Rekonstruktionseinheit 6 erstellt ein dreidimensionales Modell des Überschneidungsbereiches 10 basierend auf dem ersten Infrarotbild und dem zweiten Infrarotbild. Das dreidimensionale Model ist in dieser ersten Ausführungsform ein Computermodel des Fahrzeugumfeldes. Dazu wird die Position von Objekten im Umfeld des Fahrzeuges 1 in ein Koordinatensystem eingetragen.
  • Die Position eines Objektes 7 wird dabei bestimmt, indem die räumliche Position eines Objektes 7 in dem Überschneidungsbereich gegenüber dem Fahrzeug 1 mittels der Lage des Objektes 7 in dem ersten und dem zweiten Infrarotbild und der räumlichen Anordnung der Infrarotkameras zueinander bestimmt wird. Dabei ist es erforderlich dasselbe Objekt 7 in dem ersten und dem zweiten Infrarotbild zu identifizieren. Dies erfolgt in dieser ersten Ausführungsform, indem ähnliche Wärmesignaturen in dem ersten und dem zweiten Infrarotbild gesucht werden.
  • Das bedeutet insbesondere, dass Bereiche in den beiden Infrarotbildern, die eine gleiche Temperatur anzeigen, mit hoher Wahrscheinlichkeit auf dasselbe Objekt 7 hindeuten. Wurde die Lage des Objekts 7 in dem ersten und dem zweiten Infrarotbild identifiziert, so die wird die tatsächliche Position des Objekts 7 gegenüber dem Fahrzeug mittels einer Triangulation errechnet und in das Koordinatensystem eingetragen. Eine solche Triangulation ist möglich, da die Anordnung der Infrarotkameras 3, 5 an dem Fahrzeug 1 bekannt ist und aus der Lage des Objektes in dem ersten und zweiten Infrarotbild jeweils ein Winkel errechnet werden kann, der die Position des Objektes gegenüber der jeweiligen Infrarotkamera 3, 5 beschreibt.
  • So kann aus der Lage des Objektes 7 in dem ersten Infrarotbild ein erster Winkel α bestimmt wird, der ebenfalls die Lage des Objektes gegenüber der ersten Infrarotkamera 3 bestimmt. Aus der Lage des Objektes 7 in dem zweiten Infrarotbild kann der zweite Winkel β bestimmt werden, der die Lage des Objektes 7 gegenüber der zweiten Infrarotkamera 5 bestimmt. Da die Anordnung der ersten Infrarotkamera 3 und der zweiten Infrarotkamera 5 an dem Fahrzeug 1 bekannt ist, kann die exakte Position des Objektes 7 mittels einer Triangulation erfolgen.
  • 2 zeigt ein Fahrzeug 1 mit einem Kamerasystem zum Erfassen eines Umfeldes des Fahrzeuges 1 in einer zweiten Ausführungsform der Erfindung. Diese ist eine Erweiterung der ersten Ausführungsform der Erfindung.
  • Im Bereich der ersten Infrarotkamera 3 ist eine erste Kamera 2 angeordnet. Die erste Kamera 2 ist entlang einer Längsachse des Fahrzeuges 1 nach vorne gerichtet. Die erste Kamera 2 erfasst ein erstes Bild, das den ersten Umgebungsbereich 8 des Fahrzeuges 1 abbildet. Dabei ist die ersten Kamera 2 unmittelbar über der ersten Infrarotkamera 3 angeordnet. Somit wird der erste Umgebungsbereich 8 sowohl von der ersten Kamera 2 als auch von der ersten Infrarotkamera 3 abgebildet.
  • Im Bereich der zweiten Infrarotkamera 5 ist eine zweite Kamera 4 angeordnet. Die zweite Kamera 4 ist entlang einer Querachse des Fahrzeuges 1 nach rechts gerichtet. Die zweite Kamera 4 erfasst ein zweites Bild, das den zweiten Umgebungsbereich 9 des Fahrzeuges 1 abbildet. Dabei ist die zweite Kamera 4 unmittelbar über der zweiten Infrarotkamera 5 angeordnet. Somit wird der zweite Umgebungsbereich 9 sowohl von der zweiten Kamera 4 als auch von der zweiten Infrarotkamera 5 abgebildet.
  • Die Ausrichtungen der Kameras 2, 4 und der Infrarotkameras 3, 5 sind derart gewählt, dass der Überschneidungsbereich 10, der in der hier beschriebenen zweiten Ausführungsform rechts vor dem Fahrzeug 1 liegt, sowohl in dem ersten Bild, dem zweite Bild, dem ersten Infrarotbild als auch dem zweiten Infrarotbild abgebildet wird. Die erste Kamera 2 und die zweite Kamera 4 sind Mono Kameras. Durch die Anordnung der ersten Kamera 2 an der Fahrzeugfront und die Anordnung der zweiten Kamera 4 am rechten Außenspiegel sind diese separat an dem Fahrzeug 1 angeordnet.
  • Die erste Kamera 2, die zweite Kamera 4, die erste Infrarotkamera 3 und die zweite Infrarotkamera 5 sind mit jeweils einer Datenleitung mit der Rekonstruktionseinheit 6 gekoppelt. Über diese Datenleitungen werden das erste Bild, das zweite Bild, das erste Infrarotbild und das zweite Infrarotbild an die Rekonstruktionseinheit 6 übertragen. Die Rekonstruktionseinheit 6 ist in dieser zweiten Ausführungsform ferner dazu eingerichtet ist, das dreidimensionale Modell des Überschneidungsbereiches basierend auf dem ersten Bild und dem zweiten Bild zu erweitern, wobei ein Bezug zwischen dem ersten und dem zweiten Bild hergestellt oder geprüft wird, indem Objekte 7 aus dem ersten Bild mittels des ersten und des zweiten Infrarotbildes in dem zweiten Bild erkannt werden.
  • Die Position eines Objektes 7 kann in dieser zweiten Ausführungsform entweder ausschließlich mittels die Infrarotkameras 3, 5 bestimmt werden, ausschließlich mittels der Kameras 2, 4 bestimmt werden oder mittels einer Kombination der Infrarotkameras 3, 5 und der Kameras 2, 4 bestimmt werden. Dabei ist eine Bestimmung der Position eines Objektes 7 mittels der Infrarotkameras 3, 5 besonders in einem Nahbereich des Fahrzeuges vorteilhaft, da ein Erscheinung eines Objekt 7 in dem ersten und dem zweiten Bild aufgrund der unterschiedlichen Blickwinkel der ersten und der zweiten Kamera 2, 4 auf das Objekt sehr verschieden ist. Die Wärmesignatur des Objektes ändert sich hingegen durch die unterschiedlichen Blickwinkel nur geringfügig.
  • Um den Bezug zwischen dem ersten und dem zweiten Bild herzustellen und die Lage des Objektes 7 sowohl in dem ersten Bild als auch in dem zweiten Bild zu erkennen, wird auf das erste und das zweite Infrarotbild zugegriffen. Dabei wird in einem ersten Schritt das Objekt 7, welches in das dreidimensionale Modell übertragen werden soll, in dem ersten Bild ausgewählt. In einem zweiten Schritt wird dem ersten Bild das erste Infrarotbild überlagert. Dies ist auf einfache Weise möglich, da die beiden Bilder denselben ersten Umgebungsbereich 8 abbilden. Die Bildpunkte des ersten Infrarotbildes, die über den Bildpunkten des ersten Bildes liegen, welche das Objekt 7 abbilden, geben somit eine Wärmesignatur des Objektes 7 wieder. In einem folgenden dritten Schritt wird die Wärmesignatur des Objektes 7 in dem zweiten Infrarotbild gesucht und somit die Lage des Objektes 7 in dem zweiten Infrarotbild ermittelt. Die kann beispielsweise erfolgen, indem nach einem Bereich gleicher Temperatur gesucht wird. In einem vierten Schritt wird dem zweiten Infrarotbild das zweite Bild überlagert. Dies ist auf einfache Weise möglich, da die beiden Bilder einen identischen zweiten Umgebungsbereich 9 abbilden. Die Bildpunkte des zweiten Bildes, die der Lage des Objektes 7 in dem zweiten Infrarotbild entsprechen, geben somit eine Lage des Objektes 7 in dem zweiten Bild wieder. In einem abschließenden Schritt erfolgt eine Präzisierung der Lage des Objektes 7 in dem zweiten Bild mittels bekannter Mustererkennungsverfahren.
  • Aus der Lage des Objektes 7 in dem ersten Bild kann ein erster Winkel α bestimmt werden, der die Lage des Objektes 7 gegenüber der ersten Kamera 2 bestimmt. Aus der Lage des Objektes 7 in dem zweiten Bild kann ein zweiter Winkel β bestimmt werden, der die Lage des Objekts 7 gegenüber der zweiten Kamera 4 bestimmt. Da die Anordnung der ersten Kamera 2 und der zweiten Kamera 4 an dem Fahrzeug 1 bekannt ist, kann die exakte Position des Objektes 7 mittels einer Triangulation ermittelt und die Position entsprechend in das Koordinatensystem eingetragen und somit in das dreidimensionalen Modell übertragen werden.
  • Dem Objekt 7 wird in dem dreidimensionalen Modell eine Textur zugeordnet, um eine vorteilhafte grafische Darstellung des dreidimensionalen Modells zu ermöglichen. Dabei wird die Textur des Objektes 7 aus den Farbinformationen des ersten und des zweiten Bildes entnommen.
  • 2 zeigt ein beispielhaftes Infrarotbild 20 einer Infrarotkamera. In dem Infrarotbild ist eine Person 21 abgebildet. Dabei sind jedoch keine optischen Merkmale der Person 21 erkenntlich sondern es wird die Temperatur der einzelnen Körperteile der Person 21 in unterschiedlichen Schraffuren dargestellt. Erfindungsgemäß wird ein Nutzen daraus gezogen, dass die Person 21 in dem Bild weiterhin leicht zu erkennen ist, wenn dieser eine Drehung gegenüber der aufnehmenden Infrarotkamera ausführt. Dies würde zwar zu einer Änderung der Außenkonturen der Person 21 in dem Infrarotbild 20 führen, die Temperatur der Person 21, also deren Wärmesignatur, wäre aber weiterhin erkenntlich.
  • In einer ersten alternativen Ausführungsform der Erfindung erfassen die erste Kamera 2 und die erste Infrarotkamera 3 das erste Bild und das erste Infrarotbild durch eine gemeinsame Kameraoptik. Dabei ist der Bildsensor der ersten Kamera 2 und der Bildsensor der ersten Infrarotkamera 3 hinter der gemeinsamen Kameraoptik angeordnet. Die durch die gemeinsame Kameraoptik einfallende Strahlung wird aufgeteilt und die aufgeteilten Anteile in eine erste und eine zweite Richtung abgelenkt. Dabei wird einer der Anteile gefiltert, um lediglich einen sichtbaren Anteil der einfallenden Strahlung zu behalten und der andere Anteil wird entsprechend gefiltert, um lediglich einen Infrarotanteil der einfallenden Strahlung zu behalten. Abschließend werden die beiden Anteile auf jeweils einen Bildsensor geleitet. Somit bilden die beiden Bildsensoren denselben Umgebungsbereich ab, wobei jeweils unterschiedliche Licht-Anteile betrachtet werden. Selbiges Prinzip wird auf die zweite Kamera 4 und die zweite Infrarotkamera 5 angewendet.
  • In einer zweiten alternativen Ausführungsform der Erfindung ist ein Bildsensor der ersten Kamera 2 und der ersten Infrarotkamera 3 ein gemeinsamer Bildsensor und ein Bildsensor der zweiten Kamera 4 und der zweiten Infrarotkamera 5 ist ein gemeinsamer Bildsensor. Dazu wird ein Bildsensor eingesetzt der sowohl für den sichtbaren als auch für den infraroten Spektralbereich empfindlich ist. Somit haben die erste Kamera 2 und die erste Infrarotkamera 3 eine gemeinsame Optik und einen gemeinsamen Bildsensor, zeichnen sich aber durch eine unterschiedliche Filterung eines Signals aus dem Bildsensor aus. Selbiges Prinzip wird auf die zweite Kamera 4 und die zweite Infrarotkamera 5 angewendet.
  • Neben der obigen schriftlichen Offenbarung wird explizit auf die Offenbarung der 1 bis 3 verwiesen.

Claims (8)

  1. Kamerasystem zum Erfassen eines Umfeldes eines Fahrzeuges (1), umfassend: – eine erste Infrarotkamera (3), die eingerichtet ist, ein erstes Infrarotbild zu erfassen, das einen ersten Umgebungsbereich abbildet, – eine zweite Infrarotkamera (5), die eingerichtet ist, ein zweites Infrarotbild zu erfassen, das einen zweiten Umgebungsbereich abbildet, wobei sich der erste Umgebungsbereich und der zweite Umgebungsbereich in einem Überschneidungsbereich überschneiden, – eine Rekonstruktionseinheit (6), die eingerichtet ist, ein dreidimensionales Modell des Überschneidungsbereiches basierend auf dem ersten Infrarotbild und dem zweiten Infrarotbild zu erstellen.
  2. Kamerasystem gemäß Anspruch 1, dadurch gekennzeichnet, dass die erste Infrarotkamera (3) und die zweite Infrarotkamera (5) Wärmebildkameras sind.
  3. Kamerasystem gemäß einem der vorangehenden Ansprüche, dass die räumliche Position eines Objektes (7) in dem Überschneidungsbereich gegenüber dem Fahrzeug mittels der Lage des Objektes (7) in dem ersten und dem zweiten Infrarotbild und der räumlichen Anordnung der Infrarotkameras zueinander bestimmt wird.
  4. Kamerasystem gemäß einem der vorangehenden Ansprüche, ferner umfassend: – eine erste Kamera (2), die eingerichtet ist, ein erstes Bild zu erfassen, das den Überschneidungsbereich zumindest teilweise abbildet, – eine zweite Kamera (4), die eingerichtet ist, ein zweites Bild zu erfassen, das den Überschneidungsbereich zumindest teilweise abbildet, wobei – die Rekonstruktionseinheit (6) ferner dazu eingerichtet ist, das dreidimensionales Modell des Überschneidungsbereiches basierend auf dem ersten Bild und dem zweiten Bild zu erweitern, wobei ein Bezug zwischen dem ersten und dem zweiten Bild hergestellt oder geprüft wird, indem Objekte (7) aus dem ersten Bild mittels des ersten und des zweiten Infrarotbildes in dem zweiten Bild erkannt werden.
  5. Kamerasystem gemäß Anspruch 4, dadurch gekennzeichnet, dass – die erste Kamera (2) und die erste Infrarotkamera (3) das erste Bild und das erste Infrarotbild durch eine gemeinsame Kameraoptik (8) erfassen, und/oder – die zweite Kamera (4) und die zweite Infrarotkamera (5) das zweite Bild und das zweite Infrarotbild durch eine gemeinsame Kameraoptik (9) erfassen.
  6. Kamerasystem gemäß einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass – ein Bildsensor der ersten Kamera (2) und der ersten Infrarotkamera (3) ein gemeinsamer Bildsensor ist, und/oder – ein Bildsensor der zweiten Kamera (4) und der zweiten Infrarotkamera (5) ein gemeinsamer Bildsensor ist.
  7. Kamerasystem gemäß einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die erste Kamera (2) und die zweite Kamera (4) zwei separat voneinander angeordnete Mono-Kameras sind.
  8. Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges (1), umfassend: – Erfassen eines erstes Infrarotbildes mit einer ersten Infrarotkamera (3), das einen ersten Umgebungsbereich abbildet, – Erfassen eines zweites Infrarotbildes mit einer zweiten Infrarotkamera (5), das einen zweiten Umgebungsbereich abbildet, wobei sich der erste Umgebungsbereich und der zweite Umgebungsbereich in einem Überschneidungsbereich überschneiden, – Erstellen eines dreidimensionalen Modells des Überschneidungsbereiches basierend auf dem ersten Infrarotbild und dem zweiten Infrarotbild.
DE102014206677.8A 2014-04-07 2014-04-07 Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges Withdrawn DE102014206677A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014206677.8A DE102014206677A1 (de) 2014-04-07 2014-04-07 Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014206677.8A DE102014206677A1 (de) 2014-04-07 2014-04-07 Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges

Publications (1)

Publication Number Publication Date
DE102014206677A1 true DE102014206677A1 (de) 2015-10-08

Family

ID=54146432

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014206677.8A Withdrawn DE102014206677A1 (de) 2014-04-07 2014-04-07 Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges

Country Status (1)

Country Link
DE (1) DE102014206677A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160214534A1 (en) * 2014-09-02 2016-07-28 FLIR Belgium BVBA Watercraft thermal monitoring systems and methods
DE102020111532A1 (de) 2020-04-28 2021-10-28 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zum Messen der Entfernung eines Bordsteines
US11323635B2 (en) * 2019-02-25 2022-05-03 Yamaha Hatsudoki Kabushiki Kaisha Imaging device including distance calculator for ship and ship including the imaging device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004037870A1 (de) * 2004-08-04 2006-03-16 Siemens Ag Optisches Modul für ein Außenvorraum in Fahrtrichtung eines Kraftfahrzeuges erfassendes Assistenzsystem
DE102004053416A1 (de) * 2004-11-05 2006-05-11 Robert Bosch Gmbh Konzeption einer Kamera mit Spiegeln zur Erzeugung eines Stereobildpaares
DE102006010295A1 (de) * 2006-03-07 2007-09-13 Conti Temic Microelectronic Gmbh Kamerasystem mit zumindest zwei Bildaufnehmern
DE102009012758A1 (de) * 2009-03-12 2010-09-16 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion mindestens eines Objektes
DE102010038056A1 (de) * 2009-10-08 2011-05-26 Hoya Corp. Bildgerät und Bildsystem zu Abbilden eines bewegten Objekts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004037870A1 (de) * 2004-08-04 2006-03-16 Siemens Ag Optisches Modul für ein Außenvorraum in Fahrtrichtung eines Kraftfahrzeuges erfassendes Assistenzsystem
DE102004053416A1 (de) * 2004-11-05 2006-05-11 Robert Bosch Gmbh Konzeption einer Kamera mit Spiegeln zur Erzeugung eines Stereobildpaares
DE102006010295A1 (de) * 2006-03-07 2007-09-13 Conti Temic Microelectronic Gmbh Kamerasystem mit zumindest zwei Bildaufnehmern
DE102009012758A1 (de) * 2009-03-12 2010-09-16 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion mindestens eines Objektes
DE102010038056A1 (de) * 2009-10-08 2011-05-26 Hoya Corp. Bildgerät und Bildsystem zu Abbilden eines bewegten Objekts

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160214534A1 (en) * 2014-09-02 2016-07-28 FLIR Belgium BVBA Watercraft thermal monitoring systems and methods
US10931934B2 (en) * 2014-09-02 2021-02-23 FLIR Belgium BVBA Watercraft thermal monitoring systems and methods
US11323635B2 (en) * 2019-02-25 2022-05-03 Yamaha Hatsudoki Kabushiki Kaisha Imaging device including distance calculator for ship and ship including the imaging device
DE102020111532A1 (de) 2020-04-28 2021-10-28 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zum Messen der Entfernung eines Bordsteines

Similar Documents

Publication Publication Date Title
EP3497476A1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
DE102014216285B4 (de) Bildsystem für Kraftfahrzeugsicherheitsanwendungen
DE102014116140A1 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE112010005565T5 (de) Einparkunterstützungsvorrichtung, Einparkunterstützungssystem und Einparkunterstützungskameraeinheit
DE102016212405A1 (de) Fahrzeugbildverarbeitungsvorrichtung und Fahrzeugbildverarbeitungssystem
WO2012152475A1 (de) Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs
DE102012200731A1 (de) Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
EP1404545A1 (de) Vorrichtung zur bilddetektion von gegenständen, personen oder dergleichen im umfeld eines fahrzeuges
DE102013108070A1 (de) Bildkalibrierung und Entzerrung einer Weitwinkelkamera
DE102009019399B4 (de) Verfahren zur automatischen Bestimmung wenigstens einer die Änderung der Lage eines Kraftfahrzeugs beschreibenden Zielgröße
DE102017127248B4 (de) Bildbearbeitungsvorrichtung und Bildbearbeitungsverfahren
DE102012001554A1 (de) Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102012209316A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
DE102020129096A1 (de) Erzeugung dreidimensionaler punktwolken mittels einer polarimetrischen kamera in einem mit einem fahrassistenzsystem ausgestatteten fahrzeug
DE102015108944A1 (de) Rundsichtsystem und Betriebsverfahren davon
DE102013202915A1 (de) Verfahren und Vorrichtung zum Vermessen einer Parklücke für ein Einparkassistenzsystem eines Kraftfahrzeugs
EP1460454A2 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102014114221A1 (de) Verfahren zum Detektieren von einem Objekt in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102018102047A1 (de) Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit virtuellen, länglichen Abstandsmarkierungen in einem Bild, Computerprogrammprodukt, sowie Anzeigesystem
DE102014206677A1 (de) Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges
DE102015209764A1 (de) Extrinsische Kalibrierung einer Bilderfassungseinrichtung eines Fahrzeugs
DE102015101190A1 (de) Verfahren zum Bestimmen eines Bildtiefenwerts abhängig von einem Bildbereich, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee