DE102016206493A1 - Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug - Google Patents

Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug Download PDF

Info

Publication number
DE102016206493A1
DE102016206493A1 DE102016206493.2A DE102016206493A DE102016206493A1 DE 102016206493 A1 DE102016206493 A1 DE 102016206493A1 DE 102016206493 A DE102016206493 A DE 102016206493A DE 102016206493 A1 DE102016206493 A1 DE 102016206493A1
Authority
DE
Germany
Prior art keywords
cameras
distance
determination
account
taking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016206493.2A
Other languages
English (en)
Inventor
Martin Reiche
Julia Heroldt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to CN201610454503.5A priority Critical patent/CN106303407A/zh
Priority to GB1610870.6A priority patent/GB2541101A/en
Priority to US15/190,232 priority patent/US20160379066A1/en
Publication of DE102016206493A1 publication Critical patent/DE102016206493A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

Es wird ein Kamerasystem bzw. ein Verfahren zur Entfernungsbestimmung von Objekten zu einem Fahrzeug mittels zwei Kameras (101, 102) vorgeschlagen, die unterschiedliche (113, 114), sich jedoch zumindest teilweise überlappende (107) Sichtfelder erfassen, wobei die Kameras unterschiedlich ausgelegte Optiken haben und die Bilder der Kameras (101, 102) dafür genutzt werden, eine Entfernungsbestimmung (109) eines Objektes (108) im Überlappungsbereich (107) der Kameras (101, 102) durchzuführen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren bzw. ein Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug mit wenigstens zwei Kameras.
  • Stand der Technik
  • Aus der Veröffentlichung Führer, D. I. T., Heger, I. T., & Heckel, M. S. J. (2014). Stereo-Videokamera als Basis für Assistenzfunktionen. ATZ-Automobiltechnische Zeitschrift, 116(2), 22–27 sind bereits Stereokamera-Systeme bekannt, die auf Basis zweier identisch ausgelegter optischer Pfade die Distanz zu einem Objekt in ihrem Überlappungsbereich ermitteln und diese Information in Fahrerassistenzsysteme einbinden. Die Stereovideo-Kamera generiert eine sogenannte stereoskopische Disparitätsinformation, das heißt, sie erstellt aus dem Vergleich zwischen den linken und rechten Bildern eine präzise 3-D-Karte der Fahrzeugumgebung. Die daraus entstehende Tiefenkarte umfasst eine hochgenaue Abstandsberechnung für alle Punkte im Überlappungsbereich der Kamerabilder.
  • In der Offenlegungsschrift DE 11 2012 003 685 T5 wird des Weiteren ein System vorgestellt, welches eine Bildbearbeitungsvorrichtung umfasst, das aus einer ersten und zweiten Bildaufnahmeeinheit mit Weitwinkellinsen besteht, die sich zumindest teilweise überlappende Bilder aufnehmen können. Des Weiteren besteht das System aus einer Distanzmesseinheit, die die Distanz von dem lokalen Fahrzeug zu einem Objekt auf Grundlage einer Vielzahl von Bilden, berechnet, die durch die ersten und zweiten Bildaufnahmeeinheiten aufgenommen wurden. Unter anderem kann die Berechnung der Distanz auf Grundlage der durch eine Einfallswinkel-Bestimmungseinheit bestimmten Einfallswinkel durchgeführt werden.
  • Bei idealerweise parallelen optischen Achsen der verwendeten Kameras, gleichen Brennweiten f und dem bekannten Basisabstand b der Kameras, lässt sich aus der Disparität D eines Merkmals auf den von den Kameras bzw. Bildsensoren erfassten Bildern der Abstand g zu dem zum Merkmal gehörenden Objekt bestimmen: g = f·b/D
  • Dieses Gesetz fällt an dieser Stelle so einfach aus, da die optischen Pfade beider Kameras annähernd identisch sind.
  • In der JP H11-39596 A wird ein Kamerasystem, bestehend aus zwei Stereo-Video-Kameras, offenbart. Die Stereo-Video-Kameras weisen hierbei unterschiedliche Bildwinkel auf. Anhand der erfassten Bilder jeweils einer Stereo-Video-Kamera ist eine Abstandsbestimmung von Objekten möglich, die Bilder der jeweils anderen Stereo-Video-Kamera fließen in die Abstandsbestimmung nicht ein. Für Objekte, welche sich in einem Überlappungsbereich der Sichtbereiche der beiden Stereo-Video-Kameras befinden, werden die von den jeweils einzelnen Stereo-Video-Kameras ermittelten Abstände miteinander verglichen.
  • Offenbarung der Erfindung
  • Die vorliegende Erfindung betrifft ein Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug mit wenigstens zwei Kameras, welche unterschiedliche, sich jedoch zumindest teilweise überlappende Bildbereiche erfassen. Der Kern der Erfindung besteht darin, dass sich die Auslegungen der Abbildungen wenigstens zweier Kameras voneinander unterscheiden, und dass die von wenigstens zwei Kameras erfassen Bilder eines Objektes im Überlappungsbereich der Sichtfelder der Kameras in einer Auswerteeinheit zur Bestimmung der Entfernung des Objektes zum Fahrzeug genutzt werden.
  • Die Erfindung ermöglicht eine Entfernungsbestimmung von Objekten mit Hilfe von wenigstens zwei Kameras mit unterschiedlich ausgelegten Optiken. Im Gegensatz zu einer Stereovideo-Kamera müssen die verwendeten Kameras nicht baugleich sein und den gleichen Abbildungsgesetzen genügen. Dadurch ist es möglich, ein System zu konstruieren, welches mit unterschiedlich ausgelegten Kameras verschiedene Bildbereiche abdecken kann, beispielsweise mit einem Weitwinkel und einem Teleobjektiv, und gleichzeitig eine Entfernungsbestimmung der sich im Überlappungsbereich befindenden Objekte durchführen kann. Das offenbarte Kamerasystem ermöglicht diese Abdeckung der Bildbereiche mit Hilfe von nur zwei Mono-Kameras. Hierdurch entsteht eine deutliche Kostenersparnis zu bereits bekannten Kamerasystemen, die zur Abdeckung des gleichen Bildbereichs zwei Stereo-Video-Kameras einsetzen.
  • Die vorgeschlagene Erfindung könnte besonders für Fahrerassistenz- oder Sicherheitsfunktionen angewendet werden. Denkbar wären Systeme, wie beispielsweise Notbremssysteme, Spurhalteassistenten, Spurwechselassistenten, Verkehrszeichenerkennung, Systeme zur Abstandregulierung, Komfortsysteme wie Stauassistenten, Baustellenassistenten und vergleichbare Systeme.
  • Der Vorteil der Erfindung wird an dieser Stelle noch einmal besonders deutlich, da mit einem Kamerasystem mehrere Assistenzfunktionen denkbar sind. Bei den unterschiedlichen Systemen müssen in einigen Fällen mehrere Fahrspuren in sehr nahem Umfeld des Fahrzeugs abgebildet werden, was vorzugsweise mit Kameras mit sehr breitem Sichtfeld, insbesondere mit Weitwinkelobjektiven realisierbar ist. Andere Systeme, wie die Verkehrszeichenerkennung oder eine Assistenzfunktion, die weit entferne Objekte und/oder Fahrzeuge erkennen müssen, benötigen hierfür bevorzugt ein Kamerasystem, welches beispielsweise ein Teleobjektiv verwendet, mit welchem weit entfernte Gegenstände scharf abgebildet werden können.
  • Die vorgeschlagene Erfindung ermöglicht somit, mit Hilfe eines Kamerasystems die Anforderungen unterschiedlicher Fahrerassistenzfunktionen und/oder Funktionen zum autonomen Fahren zu erfüllen, wofür wenigstens zwei herkömmliche/bekannte Kamerasysteme notwendig wären. Dadurch lassen sich Kosten einsparen oder alternativ eine größere Anzahl an Assistenz- oder Sicherheitsfunktionen mit nur einem Kamerasystem realisieren.
  • Unter Auslegung der Abbildungen können beispielsweise die Sichtfelder und/oder die Bildwinkel und/oder die Lichtempfindlichkeit und/oder die Separationsfähigkeit und/oder die Pixelauflösung und/oder das Farbfilterpattern des Imagers der verwendeten Kameras verstanden werden.
  • Bei dem offenbarten Kamerasystem können sich zudem die Sichtfelder und/oder die Bildwinkel der Kameras beliebig voneinander unterscheiden. Die Sichtfelder bezeichnen die von den Kameras erfassten Bildbereiche, die häufig auch als „field of view (FOV) bezeichnet werden, deren Begrenzung durch die Bildwinkel der Kameras gegeben sind.
  • Die Anordnungen der Kameras können sich in beliebiger Weise voneinander unterscheiden, beispielsweise, dass ihre Position zueinander variiert und/oder sich die Ausrichtungen unterscheiden, genauer die Richtungen und Ausrichtungen der optischen Achsen zueinander. Die Kameras können hierbei zueinander parallele und/oder divergierende und/oder konvergierende optische Achsen aufweisen.
  • Des Weiteren können die wenigstens zwei Kameras in einem Gehäuse angeordnet werden, in dem optional auch eine Auswerteeinheit verbaut werden kann, die jedoch auch an einer beliebigen anderen Stelle im Fahrzeug angebracht werden kann. Außerdem können die Kameras in wenigstens zwei komplett separaten Gehäusen untergebracht werden, die sich an beliebigen Stellen im Fahrzeug befinden. Die Auswerteeinheit kann sich in diesem Fall ebenso an einer beliebigen Position im Fahrzeug befinden oder alternativ in einem der Kameragehäuse untergebracht werden.
  • Die verwendeten Objektive der Kameras, deren optische Abbildungen beispielsweise durch Werte wie Sichtfelder, Bildwinkel, Brennweiten und/oder Abstände der Bildsensoren beschrieben werden können, können sich beliebig voneinander unterscheiden, sodass beispielsweise wenigstens ein Weitwinkelobjektiv verwendet wird und die Optik wenigstens einer weiteren Kamera beispielsweise ein Teleobjektiv aufweist.
  • Erfindungsgemäß wird außerdem ein Verfahren zur Entfernungsbestimmung von Objekten zu einem Fahrzeug vorgestellt, mit wenigstens zwei Kameras, welche unterschiedliche, sich jedoch zumindest teilweise überlappende Bildbereiche erfassen, dadurch gekennzeichnet, dass sich die Auslegungen der Abbildungen wenigstens zweier Kameras voneinander unterscheiden, und dass die von wenigstens zwei Kameras erfassten Bilder eines Objektes im Überlappungsbereich in einer Auswerteeinheit zur Bestimmung der Entfernung des Objektes zum Fahrzeug genutzt werden.
  • Die verwendeten Kameras für die Anwendung des erfindungsgemäßen Verfahrens können dadurch gekennzeichnet sein, dass sich die Auslegungen der Abbildungen dadurch unterscheiden, dass die Kameras unterschiedliche Sichtfelder und/oder Bildwinkel aufweisen und/oder sich die Abbildungsmaßstäbe und /oder Verzeichnungen der Abbildungen voneinander unterscheiden.
  • Zur Bestimmung der Entfernung des Objektes zum Fahrzeug kann in einem weiteren Schritt wenigstens eines der Sichtfelder und/oder wenigstens einer der Bildwinkel berücksichtigt werden. Zur Berechnung der Entfernung können des Weiteren die erfassten Bilder der Kameras verwendet werden und/oder es kann die Berücksichtigung der Ausrichtung der Kameras zueinander einfließen, insbesondere die Ausrichtung der optischen Achsen. In die Berechnung können des Weiteren, die Positionierung der Kameras zueinander, insbesondere der Basisabstand der Kameras, die Berücksichtigung der Korrektur, der von den Kameras erfassten Bildern durch Rückrechnung der Verzeichnung und/oder die Berücksichtigung der ermittelten korrigierten Positionen eines Objektes im Bild von wenigstens zwei Kameras, von denen das Objekt erfasst wurde, einfließen.
  • Bei der Bestimmung der Entfernung des Objektes zum Fahrzeug kann zudem die ermittelte Winkeldifferenz der Objektwinkel wenigstens zweier Kameras einfließen. Der Objektwinkel einer Kamera beschreibt hierbei den Winkel zwischen der optischen Achse der Kamera und der gedachten Linie von der Kamera zum detektierten Objekt. Die Kamera kann deshalb als Bezugspunkt verwendet werden, da der Abstand zwischen Kamera und Bildsensor im Vergleich zum Abstand zwischen Kamera und detektiertem Objekt sehr klein ist. Alternativ kann der Bezugspunkt auch anders definiert werden, beispielsweise kann der Mittelpunkt der vordersten Linse, bezogen auf das Objekt, oder der vordere oder hintere Brennpunkt oder der Bildsensor oder das Kameragehäuse verwendet werden. Alle genannten Punkte liegen jeweils auf der optischen Achse der entsprechenden Kamera. Ist der Bezugspunkt klar definiert, kann jederzeit eine Umrechnung des Objektwinkels zu einem beliebigen anderen Bezugspunkt durchgeführt werden. Durch Verwendung eines genauer spezifizierten Bezugspunktes ergeben sich alternative Beschreibungen des Objektwinkels, wie:
    • • Der Objektwinkel beschreibt hierbei den Winkel zwischen der optischen Achse und einer gedachten Linie von dem Schnittpunkt der vordersten Linse, in Bezug auf das Objekt, und der optischen Achse der Kamera zum Objekt.
    • • Der Objektwinkel beschreibt hierbei den Winkel zwischen der optischen Achse und einer gedachten Linie von dem Schnittpunkt des vordersten Brennpunkts, in Bezug auf das Objekt, und der optischen Achse der Kamera zum Objekt.
    • • Wie beschrieben, spielt es keine Rolle, ob man den Schnittpunkt der optischen Achse mit dem Scheitel der ersten Linse oder z.B. der Eintrittspupille nimmt, da die Objektabstände sehr groß gegenüber diesem Inkrement von Eintrittspupille zum Linsenscheitel sind.
  • Weitere Einzelheiten, Merkmale, Merkmalskombinationen, Vorteile und Wirkungen auf Basis der Erfindung ergeben sich aus den Unteransprüchen, sowie der nachfolgenden Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung und aus den Zeichnungen. Diese zeigen in schematischer Darstellung:
  • 1 zeigt ein beispielhaftes Kamerasystem, bestehend aus zwei Kameras mit unterschiedlichen Sichtfeldern und Bildwinkeln.
  • 2 zeigt ein Diagramm zur Darstellung des angewandten Verfahrens.
  • 3 zeigt einen beispielhaften Verlauf der Bildhöhe über dem Objektwinkel zweier Kameras.
  • 4 zeigt eine beispielhafte optische Abbildung zur Definition einiger Begriffe.
  • 5 zeigt die Verzeichnungen der beiden Kameras aufgetragen über der Bildhöhe.
  • 6 zeigt die Verzeichnungen der beiden Kameras aufgetragen über dem Objektwinkel.
  • 1 zeigt beispielhaft den Aufbau eines Kamerasystems bestehend aus zwei Kameras 101, 102, die in einem gewissen Abstand 112 zueinander angeordnet sind. Im angeführten Beispiel sind die optischen Achsen 105, 106 der Kameras 101, 102 parallel zueinander, können alternativ jedoch auch konvergierend oder divergierend angeordnet sein.
  • Die Kameras 101, 102 sind in einem gemeinsamen Gehäuse 115 untergebracht, was optional möglich ist, aber keine Voraussetzung darstellt. Zudem ist das Kamerasystem mit einer Auswerteeinheit 116 verbunden, die wahlweise im gleichen Gehäuse 115 verbaut sein kann oder sich außerhalb an einer beliebig anderen Position befinden kann.
  • Die beiden Kameras 101, 102 besitzen unterschiedliche Sichtfelder 113, 114 bzw. unterschiedliche Bildwinkel 103, 104. Die Sichtfelder 113, 114 überlappen sich in einem Bereich 107, der somit von beiden Kameras erfasst wird. Im Überlappungsbereich 107 befindet sich ein Objekt 108. Das Objekt 108 wird von beiden Kameras 101, 102 unter einem bestimmten Objektwinkel 110, 111 wahrgenommen. Mit Hilfe des erfindungsgemäßen Verfahrens erfolgt die Bestimmung des Abstands 109 vom Objekt 108 zum Fahrzeug.
  • In 2 ist das offenbarte Verfahren zur Abstandsbestimmung anhand eines Ablaufdiagramms schematisch dargestellt. Zu Beginn des Verfahrens 201 sind die technischen Daten der Kameras 101, 102 bekannt, worunter beispielsweise die Position der Kameras 101, 102, deren Abstand 112, die Ausrichtung der optischen Achsen 105, 106, die Bildwinkel 103, 104 und die Sichtfelder 113, 114 fallen.
  • Diese Informationen sind und/oder werden im System vermerkt 202 bevor das Einlesen der Bilddaten 203 stattfindet. Die Reihenfolge der Bearbeitung ist an dieser Stelle jedoch irrelevant, sodass Schritt 202 an eine beliebige Stelle zwischen 201 und 207 gesetzt werden kann.
  • Nach dem Einlesen der Daten 203 erfolgt in Schritt 204 die Entzeichnung der Bilder, also eine Rückrechnung der Verzeichnung der Kameras 101, 102 siehe Erklärung anhand der nachfolgenden Figuren. Die Bilder können dann in Schritt 205 auf ein gemeinsames System normiert werden, sodass in Schritt 206 die Bestimmung der Objektwinkel 110, 111 eines gemeinsamen Objektes 108 im vom beiden Kameras 101, 102 gemeinsam erfassten Bereich 107 durchgeführt werden kann. Die Schritte 204, 205, 206 können beliebig vertauscht werden, wodurch sich am Ergebnis des Verfahrens nichts ändert.
  • Im anschließenden Schritt 207 erfolgt die Berechnung der Abstands 109 unter Berücksichtigung der bereits bekannten technischen Daten der Kameras 101, 102 und der bestimmten Objektwinkel 110, 111. Anstelle der Objektwinkel 110, 111 können für die Berechnung auch die Positionen des Objektes 108 auf den korrigierten, von den Kameras 101, 102 erfassten Abbildungen verwendet werden. Mit diesen Positionen lässt sich ebenso die Disparität ermitteln, wie es mit Hilfe der Objektwinkel 110, 111 möglich ist. Das bedeutet, dass die Bestimmung der Entfernung 109 auch unter Berücksichtigung des ermittelten Abstands der von den Kameras 101, 102 erfassten Bildern des Objektes 109 geschehen kann.
  • Das Verfahren gibt als Ergebnis 208 die Entfernung des Objektes 109 zum Fahrzeug an. Der exakte Bezugspunkt, zu welchem der Abstand 109 gemessen wird, kann basierend auf den Anforderungen an das Kamerasystem definiert werden. Nach der Aus- und/oder Weitergabe des Abstands 208 endet die Entfernungsbestimmung und kann erneut mit dem gleichen oder einem beliebig anderen Objekt durchgeführt werden. Diese Entfernungsbestimmungen laufen nicht sequentiell ab, sondern es werden die zeitgleich gemessenen Gesamtbilder beider Kameras in ihrem Überlappungsbereich auf korrespondierende Bildinhalte abgesucht. Nach Rückrechnung der Abbildungen auf ein gemeinsames Abbildungsgesetz und/oder einen gemeinsamen Maßstab kann man aus der Disparität eine Tiefenkarte über den Objektraum bestimmen.
  • Die Ermittlung des Abstands 109 ist nicht auf ein Objekt 108 beschränkt, es können gleichzeitig die Abstände aller Objekte im Überlappungsbereich bestimmt werden und somit eine präzise 3-D-Karte der von den Kameras 101, 102 erfassten Fahrzeugumgebung erstellt werden. Hierfür können die Schritte 201 bis 209 beliebig oft wiederholt werden. Die Ermittlung des Abstands 109 zu einem beliebigen Objekt 108 im Überlappungsbereich kann sich zeitlich wiederholen, wodurch die zeitliche Änderung des Abstands zu dem Objekt 108 bestimmen lässt. Dies kann wiederum mit beliebig vielen Objekten im Überlappungsbereich durchgeführt werden, solange die Objekte von beiden Kameras erfasst werden. Hierdurch ist beispielsweise eine Geschwindigkeitsmessung des Fahrzeugs möglich.
  • In 3 ist beispielhaft die Bildhöhe h 401 von zwei Kameras 101, 102 über dem Objektwinkel 110, 111 aufgetragen. Die Bildhöhe 401 ist beispielhaft in 4 an einer Abbildung einer Linsenoptik verdeutlicht. In 4 sind ebenfalls noch einmal der Objektwinkel 402 zum Objekt 403 und die Brennweiten der Linse 404 aufgetragen. Im der folgenden beispielhaften Ausführung des Kamerasystems sind die optischen Achsen beider Kameras 101, 102 ideal kollinear, der Basisabstand 112 der beiden Kameras 101, 102 ist gegeben. In erster Näherung sind die Abbildungen der Kameras 101, 102 in Bezug zu deren optischen Achsen 105, 106 rotationssymmetrisch, beschreibbar als Bildhöhe hΩ 401 über dem Objektwinkel Ω 402. Im Beispiel wird eine maximale Bildhöhe des Bildsensors von 3mm angenommen, was in etwa der halben Diagonale des optisch aktiven Rechtecks des Bildsensors entspricht.
  • Die Abbildungsgesetze der beiden Kameras 101, 102 werden in diesem Beispiel als näherungsweise linear angenommen, mit der Steigung der Brennweite f 404. Kamera 1 101 hat dabei einen maximalen Objektwinkel 110 von 25°, Kamera 2 102 einen maximalen Objektwinkel von 50°. Die unterschiedlichen Bildhöhen aufgetragen über dem Winkel 302, 304 der beiden Kameras 101, 102 sind in 3 dargestellt. Dabei entspricht die Bildhöhe 302 der Bildhöhe der Kamera 1 101 und entsprechend die Bildhöhe 304 der Kamera 2 102. Zusätzlich dazu sind in gestrichelten Linien 301, 303 die entsprechenden Bildhöhen einer idealen Abbildung gemäß einer Lochkamera h_s = f·tanΩ dargestellt, wobei h_s die Bildhöhe der Lochkameraabbildung, f die Brennweite und Ω den Objektwinkel 402 repräsentieren. Diese idealen Abbildungskurven 301, 303 bilden die Referenz für die sogenannte Verzeichnung.
  • In 5 sind die Verzeichnungen 501, 502 beider Kameras 101, 102 über die Bildhöhe 401 aufgetragen, wodurch sich zwei komplett unterschiedliche Kurvenverläufe ergeben. Verzeichnung 501 entspricht hier der Verzeichnung von Kamera 1 101 und die Verzeichnung 502 entsprechend der Verzeichnung von Kamera 2 102. Werden beide Verzeichnungen 601, 602 über dem Objektwinkel 402 aufgetragen, ergeben sich für die beiden optischen Pfade der Kameras 101, 102 gleiche Verzeichnungen. Verzeichnung 601 entspricht hier der Verzeichnung von Kamera 1 101 und die Verzeichnung 602 entsprechend der Verzeichnung von Kamera 2 102.
  • Basierend auf diesen Zusammenhängen lässt sich ein Vorgehen beschreiben, mit welchem der Abstand 109 eines Objektes 108 im Überlappungsbereich 107 der Sichtfelder 113, 114 der beiden Kameras 101, 102 bestimmt werden kann:
    • • Gemäß der Pixelraster von Kamera 1 101 und Kamera 2 102 werden die erfassten Bilder entzeichnet, das bedeutet, die Verzeichnung wird rückgerechnet.
    • • Nach der Entzeichnung werden die korrigierten Positionen des Objektes 108 in den Abbildungen der Kameras 101, 102 ermittelt, also in den erfassten Bildern der Kameras 101, 102.
    • • Es folgt die Ermittlung der Differenz der Objektwinkel 110, 111 der Kameras 101, 102.
    • • Aus der Winkeldifferenz und dem Basisabstand 112 wird anschließend die Objektentfernung bestimmt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 112012003685 T5 [0003]
    • JP 11-39596 A [0006]
  • Zitierte Nicht-Patentliteratur
    • Führer, D. I. T., Heger, I. T., & Heckel, M. S. J. (2014) [0002]
    • ATZ-Automobiltechnische Zeitschrift, 116(2), 22–27 [0002]

Claims (15)

  1. Verfahren zur Entfernungsbestimmung eines Objektes (108) zu einem Fahrzeug mittels zwei Kameras (101, 102), welche unterschiedliche (113, 114), sich jedoch wenigstens teilweise überlappende Sichtfelder (107) erfassen, dadurch gekennzeichnet, dass • sich die Bildwinkel (103, 104) der zwei Kameras (101, 102) voneinander unterscheiden, und • in einer Auswerteeinheit (116) mittels von den zwei Kameras (101, 102) erfassten Bildern eines Objektes (108) in einem Überlappungsbereich (107) der Sichtfelder (113, 114) der Kameras (101, 102) eine Bestimmung der Entfernung (109) des Objektes (108) zum Fahrzeug erfolgt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass sich die Abbildungsmaßstäbe und/oder die Verzeichnungen der Kameras unterscheiden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung wenigstens einer der Bildwinkel (103, 104) geschieht.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei den Kameras (101, 102) um Mono-Kameras handelt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung eines Vergleichs der von den Kameras (101, 102) erfassten Bildern des Objektes (108) geschieht.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung der Ausrichtung der Kameras (101, 102), insbesondere der Ausrichtung der optischen Achsen (105, 106), zueinander geschieht.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung der Positionierung der Kameras (101, 102) zueinander geschieht, wobei insbesondere vorgesehen ist, dass die Bestimmung der Entfernung (109) unter Berücksichtigung des Basisabstands (112) der Kameras (101, 102) geschieht.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung einer Korrektur der von den Kameras (101, 102) erfassten Bilder durch Rückrechnung der Verzeichnung geschieht.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung der Ermittlung der korrigierten Positionen eines von wenigstens zwei Kameras (101, 102) detektierten Objektes (108) in den von den Kameras (101, 102) erfassten Bildern geschieht.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Entfernung (109) unter Berücksichtigung der ermittelten Winkeldifferenz der Objektwinkel (110, 111), also der Winkel zwischen den optischen Achsen (105, 106) der Kameras (101, 102) und den gedachten Linien von den Kameras (101, 102) zum Objekt (108), geschieht.
  11. Kamerasystem zur Entfernungsbestimmung eines Objektes (108) zu einem Fahrzeug mittels zwei Kameras (101, 102), welche unterschiedliche (113, 114), sich jedoch zumindest teilweise überlappende Sichtfelder (107) erfassen, dadurch gekennzeichnet, dass • sich die Bildwinkel (103, 104) der wenigstens zwei Kameras (101, 102) voneinander unterscheiden, und • eine Auswerteeinheit (116) zur Bestimmung der Entfernung (109) des Objektes (108) zum Fahrzeug vorgesehen ist, welche dafür ausgelegt ist, mittels der von den wenigstens zwei Kameras (101, 102) erfassten Bildern eines Objektes (108) im Überlappungsbereich (107) der Sichtfelder (113, 114) die Entfernung (109) zu bestimmen.
  12. Kamerasystem nach Anspruch 11, dadurch gekennzeichnet, dass es sich bei den Kameras (101, 102) um Mono-Kameras handelt.
  13. Kamerasystem nach Anspruch 11 oder 12, dadurch gekennzeichnet, sich die Kameras durch unterschiedliche Verzeichnungen unterscheiden.
  14. Kamerasystem nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass die unterschiedlichen Kameras (101, 102) in einem gemeinsamen Gehäuse (115) untergebracht sind.
  15. Kamerasystem nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass die unterschiedlichen Kameras (101, 102) parallele oder konvergierende oder divergierende optische Achsen (105, 106) aufweisen.
DE102016206493.2A 2015-06-23 2016-04-18 Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug Withdrawn DE102016206493A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610454503.5A CN106303407A (zh) 2015-06-23 2016-06-22 用于确定从对象到车辆的距离的方法和摄像机系统
GB1610870.6A GB2541101A (en) 2015-06-23 2016-06-22 Method and camera system for determining the distance of objects in relation to a vehicle
US15/190,232 US20160379066A1 (en) 2015-06-23 2016-06-23 Method and Camera System for Distance Determination of Objects from a Vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015211574.7 2015-06-23
DE102015211574 2015-06-23

Publications (1)

Publication Number Publication Date
DE102016206493A1 true DE102016206493A1 (de) 2016-12-29

Family

ID=57537247

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016206493.2A Withdrawn DE102016206493A1 (de) 2015-06-23 2016-04-18 Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug

Country Status (3)

Country Link
US (1) US20160379066A1 (de)
CN (1) CN106303407A (de)
DE (1) DE102016206493A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020207732A1 (de) 2020-06-23 2021-12-23 Continental Engineering Services Gmbh Hinderniserkennung in einem Überlappungsbereich von Sichtfeldern zweier Kameras durch Ausnutzung von Unterschieden zwischen Re-Projektionen
DE102020208844A1 (de) 2020-07-15 2022-01-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Überwachen einer Abbildungseigenschaft eines optischen Pfads einer Bilderfassungseinrichtung für ein Fahrzeug
DE102020124220A1 (de) 2020-09-17 2022-03-17 Olympus Winter & Ibe Gmbh Verfahren und System zur stereoendoskopischen Fluoreszenzmessung sowie Softwareprogrammprodukt

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018170074A1 (en) 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
US10421399B2 (en) * 2017-05-26 2019-09-24 GM Global Technology Operations LLC Driver alert systems and methods based on the presence of cyclists
DE102017221381A1 (de) * 2017-11-29 2019-05-29 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
JP7104294B2 (ja) * 2017-12-18 2022-07-21 ミツミ電機株式会社 測距カメラ
JP7104301B2 (ja) * 2018-03-19 2022-07-21 ミツミ電機株式会社 測距カメラ
WO2020015754A1 (zh) 2018-07-19 2020-01-23 杭州海康威视数字技术股份有限公司 图像采集方法及图像采集设备
CN110740249B (zh) * 2018-07-19 2021-07-02 杭州海康威视数字技术股份有限公司 图像采集方法及图像采集设备
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
JP7256368B2 (ja) * 2019-02-06 2023-04-12 ミツミ電機株式会社 測距カメラ
CN114667729B (zh) * 2020-01-08 2024-04-19 核心光电有限公司 多孔变焦数码摄像头及其使用方法
CN111986512B (zh) * 2020-07-16 2022-04-05 华为技术有限公司 一种目标距离确定方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139596A (ja) 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd 車外監視装置
DE112012003685T5 (de) 2011-09-05 2014-07-10 Mitsubishi Electric Corp. Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001028250A1 (en) * 1999-10-12 2001-04-19 Matsushita Electric Industrial Co., Ltd. Monitor camera, method of adjusting camera, and vehicle monitor system
US8054335B2 (en) * 2007-12-20 2011-11-08 Aptina Imaging Corporation Methods and system for digitally stabilizing video captured from rolling shutter cameras
US20120113266A1 (en) * 2009-04-07 2012-05-10 Nextvision Stabilized Systems Ltd Methods of manufacturing a camera system having multiple image sensors
JP5483952B2 (ja) * 2009-08-18 2014-05-07 三菱電機株式会社 背面投射型表示装置
US8478076B2 (en) * 2010-07-05 2013-07-02 Apple Inc. Alignment of digital images and local motion detection for high dynamic range (HDR) imaging
US8665338B2 (en) * 2011-03-03 2014-03-04 Qualcomm Incorporated Blurred image detection for text recognition
US8698896B2 (en) * 2012-08-06 2014-04-15 Cloudparc, Inc. Controlling vehicle use of parking spaces and parking violations within the parking spaces using multiple cameras
US9148571B2 (en) * 2012-09-14 2015-09-29 Apple Inc. Image distortion correction in scaling circuit
JP6107081B2 (ja) * 2012-11-21 2017-04-05 富士通株式会社 画像処理装置、画像処理方法及びプログラム
US20160176343A1 (en) * 2013-08-30 2016-06-23 Clarion Co., Ltd. Camera Calibration Device, Camera Calibration System, and Camera Calibration Method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139596A (ja) 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd 車外監視装置
DE112012003685T5 (de) 2011-09-05 2014-07-10 Mitsubishi Electric Corp. Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Führer, D. I. T., Heger, I. T., & Heckel, M. S. J. (2014)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020207732A1 (de) 2020-06-23 2021-12-23 Continental Engineering Services Gmbh Hinderniserkennung in einem Überlappungsbereich von Sichtfeldern zweier Kameras durch Ausnutzung von Unterschieden zwischen Re-Projektionen
DE102020208844A1 (de) 2020-07-15 2022-01-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Überwachen einer Abbildungseigenschaft eines optischen Pfads einer Bilderfassungseinrichtung für ein Fahrzeug
DE102020124220A1 (de) 2020-09-17 2022-03-17 Olympus Winter & Ibe Gmbh Verfahren und System zur stereoendoskopischen Fluoreszenzmessung sowie Softwareprogrammprodukt

Also Published As

Publication number Publication date
CN106303407A (zh) 2017-01-04
US20160379066A1 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE102016212405A1 (de) Fahrzeugbildverarbeitungsvorrichtung und Fahrzeugbildverarbeitungssystem
EP2234081B1 (de) Verfahren zur Herstellung einer bekannten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung
DE102012200731A1 (de) Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
DE102012023706A1 (de) Fahrzeugseitiges Verfahren und fahrzeugseitige Vorrichtung zum Erfassen und Anzeigen von Parklücken für ein Fahrzeug
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
EP2189349A2 (de) Verfahren und Vorrichtung zur Kompensation eines Rollwinkels
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102013010010B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102012211791A1 (de) Verfahren und Anordnung zum Prüfen eines Fahrzeugunterbodens eines Kraftfahrzeuges
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102015122172A1 (de) Scheinwerferbasierte Projetion von Mustern zur Vermessung räumlicher Eigenschaften einer Fahrzeugumgebung
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
DE102014204360A1 (de) Verfahren sowie Vorrichtung zur Abschätzung des Abstandes eines in Bewegung befindlichen Fahrzeuges von einem Objekt
DE102010034127A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug, Fahrerassistenzsystem und Kraftfahrzeug
DE102011083745B4 (de) Verfahren zum monokularen Motion-Stereo-basierten automatischen Vermessen von freien Parkplätzen, Computerprogrammprodukt und Vorrichtung
DE102014219428A1 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102014206677A1 (de) Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102004053416A1 (de) Konzeption einer Kamera mit Spiegeln zur Erzeugung eines Stereobildpaares
EP2565580B1 (de) Verfahren zur Bestimmung eines Ausmaßes eines Objekts in einer Umgebung eines Fahrzeugs sowie eine entsprechende Vorrichtung und ein Fahrzeug mit einer derartigen Vorrichtung
DE102016212730A1 (de) Fahrzeugkameravorrichtung mit Bildauswertungselektronik

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee