DE102017115587A1 - Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug - Google Patents

Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug Download PDF

Info

Publication number
DE102017115587A1
DE102017115587A1 DE102017115587.2A DE102017115587A DE102017115587A1 DE 102017115587 A1 DE102017115587 A1 DE 102017115587A1 DE 102017115587 A DE102017115587 A DE 102017115587A DE 102017115587 A1 DE102017115587 A1 DE 102017115587A1
Authority
DE
Germany
Prior art keywords
image
coordinate system
distribution
camera
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017115587.2A
Other languages
English (en)
Inventor
George Siogkas
Michael Starr
Robert Voros
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102017115587.2A priority Critical patent/DE102017115587A1/de
Priority to PCT/EP2018/068827 priority patent/WO2019012004A1/en
Publication of DE102017115587A1 publication Critical patent/DE102017115587A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen einer räumlichen Unsicherheit (25) zwischen Objektpunkten in einem Umgebungsbereich (5) eines Kraftfahrzeugs (1) und die Objektpunkte abbildenden Bildpunkten in zumindest einem Bild (24) des Umgebungsbereiches (5), welches anhand von Bilddaten (22) zumindest einer Kamera (3) des Kraftfahrzeugs (1) erzeugt wird, wobei eine Verteilung (D, D1,D2, D3, D4) für zumindest einen extrinsischen Kameraparameter (Tz, Rx, Ry, Rz) der fahrzeugseitigen Kamera (3) vorgegeben wird, ein Probensatz (11) mit Zufallswerten (12) des zumindest einen extrinsischen Kameraparameters (Tz, Rx, Ry, Rz) basierend auf der zumindest einen Verteilung (D, D1, D2, D3, D4) bestimmt wird, mittels einer von dem Probensatz (12) abhängigen Koordinatentransformation (13) ein Satz (21) aus Referenzweltkoordinaten zumindest eines vorbestimmten Referenzobjektpunktes (26) in dem Umgebungsbereich (5) bestimmt wird, und die räumliche Unsicherheit (25) in Abhängigkeit von dem Satz (18) aus projizierten Referenzweltkoordinaten des Referenzobjektpunktes (26) bestimmt wird. Die Erfindung betrifft außerdem ein Fahrerassistenzsystem (2) sowie ein Kraftfahrzeug (1).

Description

  • Die Erfindung betrifft ein Verfahren zum Bestimmen einer räumlichen Unsicherheit zwischen Objektpunkten in einem Umgebungsbereich eines Kraftfahrzeugs und die Objektpunkte abbildenden Bildpunkten in zumindest einem Bild des Umgebungsbereiches, welches anhand von Bilddaten zumindest einer Kamera des Kraftfahrzeugs erzeugt wird. Die Erfindung betrifft außerdem ein Fahrerassistenzsystem sowie ein Kraftfahrzeug.
  • Es ist bereits aus dem Stand der Technik bekannt, einen Fahrer eines Kraftfahrzeugs mittels Fahrerassistenzsystemen zu unterstützen. Dabei werden mittels zumindest einer Kamera des Kraftfahrzeugs Bilddaten aus einem Umgebungsbereich des Kraftfahrzeugs erfasst, um anhand der Bilddaten Objekte zu erkennen sowie räumliche Lagen der Objekte relativ zum Kraftfahrzeug zu bestimmen. Ein solches Fahrerassistenzsystem kann beispielsweise ein automatisches Linienmarkierungserkennungssystem sein, wobei als die Objekte Fahrbahnmarkierungen in Form von Linien auf einer Fahrbahnoberfläche des Kraftfahrzeugs erkannt werden sowie deren Positionen relativ zum Kraftfahrzeug bestimmt werden. Basierend auf der räumlichen Lage bzw. Position der Fahrbahnmarkierungen bezüglich des Kraftfahrzeugs können dann beispielsweise die aktuelle Fahrspur des Kraftfahrzeugs sowie auch Nachbarspuren erkannt bzw. berechnet werden. So kann der Fahrer beispielsweise bei Spurwechselmanövern unterstützt werden.
  • Beim Erfassen des Umgebungsbereiches mittels Kameras werden insbesondere Originalbilder aus dem Umgebungsbereich des Kraftfahrzeugs auf eine beliebige Bildebene projiziert. Solche Originalbilder könnten beispielsweise Rohdaten einer Fischaugenkamera sein, welche den Umgebungsbereich aufgrund eines Fischaugenobjektives verzerrt darstellt. Die auf die Bildebene projizierten Bilder können beispielsweise Draufsichtbilder des Umgebungsbereiches sein. Ein Zusammenhang zwischen dem Originalbild und dem projizierten Bild kann über intrinsische und extrinsische Kameraparameter der die Rohdaten erfassenden Kamera beschrieben werden. Diese intrinsischen und extrinsischen Kameraparameter beeinflussen eine Präzision sowie eine Qualität der Projektion des Originalbildes auf die Bildebene. Darüber hinaus ist die Genauigkeit der Projektion selbst begrenzt von einer Auflösung des Originalbildes und des projizierten Bildes. Diese beiden Fehlerquellen resultieren in einem kombinierten, systematischen Fehler in Form von einer räumlichen Unsicherheit zwischen dem Originalbild und dem projizierten Bild.
  • Es ist Aufgabe der vorliegenden Erfindung, eine Lösung bereitzustellen, wie eine räumliche Unsicherheit in Bilddaten einer Kamera eines Kraftfahrzeugs besonders schnell und zuverlässig bestimmt werden kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungsformen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Gemäß einer Ausführungsform eines Verfahrens zum Bestimmen einer räumlichen Unsicherheit zwischen Objektpunkten in einem Umgebungsbereich eines Kraftfahrzeug und die Objektpunkte abbildenden Bildpunkten in zumindest einem Bild des Umgebungsbereiches, welches anhand von Bilddaten zumindest einer Kamera des Kraftfahrzeugs erzeugt wird, wird insbesondere eine Verteilung für zumindest einen extrinsischen Kameraparameter der fahrzeugseitigen Kamera vorgegeben und ein Probensatz mit Zufallswerten des zumindest einen extrinsischen Kameraparameters basierend auf der zumindest einen Verteilung bestimmt. Mittels einer von dem Probensatz abhängigen Koordinatentransformation kann ein Satz aus Referenzweltkoordinaten zumindest eines vorbestimmten Referenzobjektpunktes in dem Umgebungsbereich bestimmt werden, indem vorbestimmte Referenzweltkoordinaten des vorbestimmten Referenzobjektpunktes von einem Weltkoordinatensystem des Umgebungsbereiches in ein Bildkoordinatensystem der Bilddaten überführt werden und zurück in das Weltkoordinatensystem projiziert werden. Insbesondere wird die räumliche Unsicherheit in Abhängigkeit von dem Satz aus projizierten Referenzweltkoordinaten des Referenzobjektpunktes bestimmt.
  • Gemäß einer besonders bevorzugten Ausführungsform eines Verfahrens zum Bestimmen einer räumlichen Unsicherheit zwischen Objektpunkten in einem Umgebungsbereich eines Kraftfahrzeugs und die Objektpunkte abbildenden Bildpunkten in zumindest einem Bild des Umgebungsbereiches, welches anhand von Bilddaten zumindest einer Kamera des Kraftfahrzeugs erzeugt wird, wird eine Verteilung für zumindest einen extrinsischen Kameraparameter der fahrzeugseitigen Kamera vorgegeben und ein Probensatz mit Zufallswerten des zumindest einen extrinsischen Kameraparameters basierend auf der zumindest einen Verteilung bestimmt. Mittels einer von dem Probensatz abhängigen Koordinatentransformation wird ein Satz aus Referenzweltkoordinaten zumindest eines vorbestimmten Referenzobjektpunktes in dem Umgebungsbereich bestimmt, indem vorbestimmte Referenzweltkoordinaten des vorbestimmten Referenzobjektpunktes von einem Weltkoordinatensystem des Umgebungsbereiches in ein Bildkoordinatensystem der Bilddaten überführt werden und zurück in das Weltkoordinatensystem projiziert werden. Darüber hinaus wird die räumliche Unsicherheit in Abhängigkeit von dem Satz aus projizierten Referenzweltkoordinaten des Referenzobjektpunktes bestimmt.
  • Bei dem Verfahren können zunächst die Bilddaten aus dem Umgebungsbereich des Kraftfahrzeugs von der zumindest einen fahrzeugseitigen Kamera erfasst werden und beispielsweise einer Bildverarbeitungseinrichtung des Fahrerassistenzsystems bereitgestellt werden. Die zumindest eine Kamera ist insbesondere eine Fischaugenkamera, welche zur Vergrößerung ihres Erfassungsbereiches ein Fischaugenobjektiv aufweist. Durch das Fischaugenobjektiv weisen die von der Kamera erfassten Bilddaten bzw. Rohbilddaten Verzerrungen auf. Die verzerrten Bilddaten können zum Erzeugen des Bildes auf eine Bildebene projiziert werden. Insbesondere werden Bilddaten von zumindest vier, ein Rundumsicht-Kamerasystem ausbildenden Kameras erfasst, wobei die verzerrten Bilddaten kombiniert und zum Erzeugen eines Bildes in Form von einem Draufsichtbild des Umgebungsbereiches des Kraftfahrzeugs auf die Bildebene projiziert werden können.
  • Anhand des projizierten Bildes, beispielsweise anhand des Draufsichtbildes, können Objekte, insbesondere Fahrbahnmarkierungen, in dem Umgebungsbereich des Kraftfahrzeugs erkannt werden sowie deren Positionen in dem Weltkoordinatensystem des Umgebungsbereiches bestimmt werden. Diese bestimmten Positionsdaten sind jedoch mit einem Fehler, insbesondere einem systematischen Fehler, behaftet, welcher die räumliche Unsicherheit der bestimmten Positionen in dem Weltkoordinatensystem repräsentiert. Das Weltkoordinatensystem ist ein dreidimensionales Koordinatensystem, beispielsweise ein Fahrzeugkoordinatensystem, wobei Positionen von Objektpunkten in dem Umgebungsbereich mittels einer x-Koordinate in Fahrzeuglängsrichtung, einer y-Koordinate in Fahrzeugquerrichtung und einer z-Koordinate in Fahrzeughochrichtung beschrieben werden können.
  • Durch die Kamera werden die in dem Weltkoordinatensystem beschriebenen Objektpunkte in ein zweidimensionales Bildkoordinatensystem abgebildet. Positionen von Bildpunkten werden in dem zweidimensionalen Bildkoordinatensystem insbesondere mittels einer u-Koordinate in horizontaler Bildrichtung und einer v-Koordinate in vertikaler Bildrichtung beschrieben. Ein Zusammenhang zwischen dem Weltkoordinatensystem und dem Bildkoordinatensystem kann über extrinsische, äußere Kameraparameter und intrinsische, innere Kameraparameter beschrieben werden. Die Kameraparameter ermöglichen also eine Koordinatentransformation zwischen dem Weltkoordinatensystem bzw. einem Objektraum und dem Bildkoordinatensystem bzw. einem Bildraum. Die extrinsischen Kameraparameter beschreiben insbesondere eine Position und eine Orientierung der Kamera, also eine Pose der Kamera, im Objektraum und stellen einen Zusammenhang zwischen dem Weltkoordinatensystem und einem Kamerakoordinatensystem her. Die intrinsischen Kameraparameter stellen den Zusammenhang zwischen dem Kamerakoordinatensystem und dem Bildkoordinatensystem her.
  • Je besser bekannt und stabiler die extrinsischen Kameraparameter sind, desto geringer ist die räumliche Unsicherheit zwischen den Objektpunkten in dem Umgebungsbereich und den die Objektpunkte abbildenden Bildpunkten in den Bildern. Häufig sind die extrinsischen Kameraparameter jedoch Schwankungen unterworfen. Außerdem steht zumeist nur eine geringe Anzahl an Werten für die extrinsischen Kameraparameter zur Verfügung. Um die räumliche Unsicherheit dennoch möglichst genau bestimmen zu können, wird die zumindest eine Verteilung der Werte des zumindest einen extrinsischen Kameraparameters vorgegeben. Vorzugsweise wird als der zumindest eine extrinsische Kameraparameter zumindest eine Rotation und/oder zumindest eine Translation bestimmt, wobei für jeden extrinsischen Kameraparameter jeweils eine Verteilung sowie ein Probensatz mit Zufallswerten bestimmt werden. Mittels der Rotationswerte und der Translationswerte können somit die Position sowie die Orientierung der Kamera, also die Pose der Kamera, bestimmt werden.
  • Insbesondere wird als ein erster extrinsischer Kameraparameter eine Translation in z-Richtung, als ein zweiter extrinsischer Kameraparameter eine Rotation um die x-Achse, als ein dritter extrinsischer Kameraparameter eine Rotation um die y-Achse und als ein vierter extrinsischer Kameraparameter eine Rotation um die z-Achse bestimmt. Der Translationswert beschreibt dabei eine Verschiebung der Kamera in z-Richtung zu einem Ursprung des Weltkoordinatensystem. Die Rotationswerte beschreiben eine Drehung der Kamera um die drei Euler-Winkel. Dabei wird insbesondere für jeden der extrinsischen Kameraparameter die Verteilung der Werte des zugehörigen extrinsischen Kameraparameters vorgegeben bzw. bestimmt.
  • Basierend auf der jeweiligen Verteilung der Werte des extrinsischen Kameraparameters wird der Probensatz aus Zufallswerten des extrinsischen Kameraparameters erzeugt, insbesondere simuliert. Dies bedeutet, dass anhand der Verteilung eine Vielzahl von Werten des extrinsischen Kameraparameters künstlich erzeugt wird, welche über die vorbestimmte Verteilung angenähert werden können. Insbesondere wird also anhand einer ersten Verteilung von Translationswerten in z-Richtung ein erster Probensatz mit Zufallswerten für die Translation in z-Richtung erzeugt. Anhand einer zweiten Verteilung von Rotationswerten um die x-Achse wird ein zweiter Probensatz mit Zufallswerten für die Rotation um die x-Achse bestimmt, anhand einer dritten Verteilung von Rotationswerten um die y-Achse wird ein dritter Probensatz mit Zufallswerten für die Rotation um die y-Achse bestimmt und anhand einer vierten Verteilung von Rotationswerten um die z-Achse wird ein vierter Probensatz mit Zufallswerten für die Rotation um die z-Achse bestimmt. Der jeweilige Probensatz repräsentiert dabei insbesondere sämtliche möglichen Schwankungen, welche der zugehörige extrinsische Kameraparameter aufweisen kann. Anders ausgedrückt repräsentiert der Probensatz sämtliche möglichen Werte, die der zugehörige extrinsische Kameraparameter annehmen kann.
  • Dann wird in Abhängigkeit von dem bestimmten Probensatz eine Koordinatentransformation mit zwei Koordinatentransformationsschritten durchgeführt. Dabei wird der zumindest eine vorbestimmte Referenzobjektpunkt, dessen Position in dem Umgebungsbereich bekannt ist, in einem ersten Transformationsschritt von dem Weltkoordinatensystem in das Bildkoordinatensystem projiziert und der projizierte Referenzobjektpunkt in einem zweiten Transformationsschritt von dem Bildkoordinatensystem zurück in das Weltkoordinatensystem projiziert. Da die Koordinatentransformation, insbesondere der erste Transformationsschritt oder der zweite Transformationsschritt, in Abhängigkeit von dem Probensatz mit Zufallswerten der extrinsischen Kameraparameter durchgeführt wird, entsteht während der Transformation eine Vielzahl von Referenzweltkoordinaten, also der Satz aus Referenzweltkoordinaten.
  • Dabei ist insbesondere vorgesehen, dass die Koordinatentransformation zusätzlich in Abhängigkeit von zumindest einem vorgegebenen intrinsischen Kameraparameter durchgeführt wird. Der zumindest eine intrinsische Kameraparameter dient insbesondere zur Wiederherstellung eines Zusammenhangs zwischen dem dreidimensionalen Kamerakoordinatensystem und dem zweidimensionalen Bildkoordinatensystem. Beispielsweise können als intrinsische Kameraparameter eine Brennweite der Kamera, Koordinaten eines Bildmittelpunktes sowie Pixelskalierungen in beide Bildkoordinatenrichtungen angegeben werden. Der zumindest eine intrinsische Kameraparameter wird dabei als konstant angenommen. Auch werden insbesondere die Translationen bzw. Verschiebungen der Kamera in x-Richtung und in y-Richtung als konstant angenommen und für die Koordinatentransformation vorgegeben.
  • Der bei der Koordinatentransformation entstehende Satz aus Referenzweltkoordinaten repräsentiert dabei die möglichen Referenzweltkoordinaten des Objektpunktes in Abhängigkeit von den verschiedenen Zufallswerten des extrinsischen Kameraparameters. Anders ausgedrückt repräsentiert der Satz aus Referenzweltkoordinaten die räumliche Unsicherheit bei der Positionsbestimmung eines Objektpunktes, welche durch die unterschiedlichen, voneinander abweichenden Zufallswerte des extrinsischen Kameraparameters eingeführt wird. Insbesondere wird die räumliche Unsicherheit für jeden Bildpunkt innerhalb des projizierten Bildes bestimmt.
  • Gemäß des Verfahrens wird also eine Rechenleistung der Bildverarbeitungseinrichtung genutzt, um den umfangreichen Probensatz mit Zufallswerten des zumindest einen extrinsischen Kameraparameters künstlich zu generieren. Da der Probensatz insbesondere sämtliche Schwankungen bzw. Änderungen der extrinsischen Kameraparameter abbildet, kann anhand des Probensatzes die räumliche Unsicherheit besonders zuverlässig bestimmt werden. Außerdem ergibt sich der Vorteil, dass keine aufwendige analytische Lösung zur Bestimmung der räumlichen Unsicherheit gefunden werden muss. Basierend auf der räumlichen Unsicherheit kann in vorteilhafter Weise außerdem die Eingliederung der Objekterkennung in ein Bayes'sches Netz, insbesondere in ein Kalman-Filter oder ein Partikelfilter, erleichtert werden.
  • Vorzugsweise wird basierend auf der räumlichen Unsicherheit ein systematischer Fehler zwischen zumindest einem Endpunkt einer Linienmarkierung auf einer Fahrbahn des Kraftfahrzeugs und einer Abbildung des Endpunktes in dem zumindest einen, anhand der Bilddaten der zumindest einen Kamera erzeugten Bild der Fahrbahn bestimmt. Es werden also als die Objekte in dem Umgebungsbereich des Kraftfahrzeugs Linienmarkierungen auf einer Fahrbahnoberfläche des Kraftfahrzeugs erkannt. Basierend auf der räumlichen Unsicherheit kann dabei eine Position der Linienmarkierungsendpunkte besonders genau bestimmt werden. Somit kann ein Fahrerassistenzsystem in Form von einem Linienmarkierungserkennungssystem realisiert werden, welches einen Fahrer beispielsweise bei einem Spurwechsel auf eine Nachbarspur oder beim Spurhalten auf der aktuellen Fahrspur unterstützen kann.
  • In einer Weiterbildung der Erfindung wird ein Typ der Verteilung und/oder zumindest ein die Verteilung beschreibendes Maß, insbesondere ein Mittelwert und/oder eine Standardabweichung von Werten des zumindest einen extrinsischen Kameraparameters, bestimmt und der Probensatz in Abhängigkeit von dem Typ der Verteilung und/oder dem zumindest einen Maß bestimmt. Durch den Typ der Verteilung und/oder durch das zumindest eine, die Verteilung beschreibende Maß kann eine Häufigkeit bzw. Frequenz an auftretenden Werten des zumindest einen extrinsischen Kameraparameters definiert werden. Unter Kenntnis des Typs der Verteilung und/oder des zumindest einen, die Verteilung beschreibenden Maßes kann der Probensatz mit Zufallswerten des extrinsischen Kameraparameters, welche die tatsächlichen Werte des zumindest einen extrinsischen Kameraparameters besonders realitätsnah abbilden, simuliert werden.
  • Besonders bevorzugt wird der Probensatz mit Zufallswerten des zumindest einen extrinsischen Kameraparameters mittels einer Monte-Carlo-Methode in Abhängigkeit von der zumindest einen Verteilung simuliert. Insbesondere werden bei der Monte-Carlo-Methode die Zufallswerte mittels eines deterministischen Zufallszahlengenerators in Abhängigkeit von der zumindest einen Verteilung erzeugt. Beispielsweise kann jeder extrinsische Kameraparameter als ein Vektor beschrieben werden, wobei die Komponenten des Vektors mittels des deterministischen Zufallszahlengenerators bzw. Pseudozufallszahlengenerators unter Zuhilfenahme der spezifizierten Verteilung bestimmt werden. Somit kann der generierte Probensatz als eine zweidimensionale Matrix beschrieben werden, welche die Vektoren umfassend die Zufallswerte der extrinsischen Kameraparameter aufweist. Im vorliegenden Fall weist die Matrix beispielsweise vier Vektoren auf, welche zu vier extrinsischen Kameraparametern korrespondieren. Mittels der Monte-Carlo-Methode kann somit numerisch ein besonders großer Probensatz bzw. ein Probenvolumen bestimmt werden, anhand dessen dann die räumliche Unsicherheit für jeden Bildpunkt des erzeugten Bildes des Umgebungsbereiches mit hoher Zuverlässigkeit bestimmt werden kann.
  • In einer besonders vorteilhaften Ausführungsform wird die zumindest eine Verteilung vorgegeben, indem Messwerte des zumindest einen extrinsischen Kameraparameters mittels einer vorbestimmten Verteilungsfunktion, insbesondere einer Gaußverteilung, angenähert werden. Hier wird also die Verteilung, basierend auf welcher dann der Probensatz mit Zufallswerten des zumindest einen extrinsischen Kameraparameters erzeugt wird, aus Messwerten des zumindest einen extrinsischen Kameraparameters bestimmt. Insbesondere werden die Messwerte des zumindest einen extrinsischen Kameraparameters während zumindest einer Kamerakalibrierung der zumindest einen Kamera gemessen. Die Messwerte werden dabei durch die Verteilungsfunktion, beispielsweise die Gaußverteilung, angenähert, wobei ein Mittelwert sowie eine Standardabweichung abhängig von den Messwerten sind. Die Messwerte stellen dabei die Basis dar, anhand derer die Verteilung erzeugt wird. Basierend auf einer ersten Anzahl an Messwerten des extrinsischen Kameraparameters wird eine zweite Anzahl von Zufallswerten, welche im Vergleich zur ersten Anzahl deutlich größer ist, erzeugt. Anhand der zweiten Anzahl an Zufallswerten kann die räumliche Unsicherheit dann besonders genau und zuverlässig bestimmt werden. Somit kann in vorteilhafter Weise verhindert werden, dass eine große Anzahl von Kamerakalibrierungen bzw. Kalibrierungszyklen zum Messen der extrinsischen Kameraparameter durchgeführt werden muss. Vielmehr werden die zum Bestimmen der räumlichen Unsicherheit notwendigen extrinsischen Kameraparameter unter Zuhilfenahme von Rechenleistung der Bildverarbeitungseinrichtung simuliert.
  • Es kann vorgesehen sein, dass ein zweidimensionaler Referenzteilbereich in dem Umgebungsbereich mit Referenzobjektpunkten vorgegeben wird und die Koordinatentransformation auf den Referenzobjektpunkten des Referenzteilbereiches durchgeführt. Der zweidimensionale Referenzteilbereich in dem Umgebungsbereich ist ein so genannter Bereich von Interesse (ROI -„Region of Interest“), welcher sich insbesondere auf einer Fahrbahn des Kraftfahrzeugs befindet. Somit ist eine z-Koordinate der Referenzbildpunkte innerhalb des Referenzteilbereiches gleich 0. Die Koordinatentransformation zum Bestimmen des Satzes aus Referenzweltkoordinaten mit somit auf Basis von Referenzbodenpunkten durchgeführt. Durch die Wahl der z-Koordinate mit dem Wert 0 kann die Koordinatentransformation besonders schnell und einfach durchgeführt werden.
  • Gemäß einer Ausführungsform der Erfindung wird die Überführung des zumindest einen Referenzobjektpunktes von dem Weltkoordinatensystem in das Bildkoordinatensystem in Abhängigkeit von dem Probensatz durchgeführt. Die Projektion des in das Bildkoordinatensystem überführten Referenzobjektpunktes zurück in das Weltkoordinatensystem wird in Abhängigkeit von zumindest einem vorbestimmten extrinsischen Ideal-Kameraparameter durchgeführt.
  • Gemäß dieser Ausführungsform wird der simulierte Probensatz mit Zufallswerten des extrinsischen Kameraparameters also während des ersten Koordinatentransformationsschrittes verwendet. Dazu kann aus den Referenzweltkoordinaten in Abhängigkeit von dem Probensatz ein Satz aus Referenzbildkoordinaten eines zu dem Referenzobjektpunkt korrespondierenden Referenzbildpunktes bestimmt werden. Dies bedeutet, dass beim Projizieren des sich an einer Referenzweltposition befindlichen Referenzobjektpunktes in das Bildkoordinatensystem eine Vielzahl an Referenzbildpositionen entstehen. Aufgrund des Probensatzes mit der Vielzahl an Zufallswerten für den zumindest einen extrinsischen Kameraparameter entsteht also ein Referenzbildpunkt, dessen Referenzbildposition eine räumliche Unsicherheit aufweist. Diese räumliche Unsicherheit der Referenzbildposition wird durch den Satz aus Referenzbildkoordinaten repräsentiert.
  • Der erzeugte Satz aus Referenzbildkoordinaten wird in dem zweiten Koordinatentransformationsschritt zurück in das Weltkoordinatensystem transformiert, wobei bei der Rücktransformation der zumindest eine extrinsische Ideal-Kameraparameter verwendet wird. Dabei kann aus dem Satz aus Referenzbildkoordinaten in Abhängigkeit von dem zumindest einen vorbestimmten extrinsischen Ideal-Kameraparameter der Satz aus Referenzweltkoordinaten bestimmt werden. Der extrinsische Ideal-Kameraparameter beschreibt eine Idealkalibrierung der Kamera. Dazu kann beispielsweise jeweils ein konstanter Wert für jeden extrinsischen Kameraparameter vorgegeben werden und der zweite Transformationsschritt basierend auf den konstanten Werten der extrinsischen Kameraparameter durchgeführt werden. Außerdem werden insbesondere in beiden Koordinatentransformationsschritten dieselben, konstanten intrinsischen Kameraparameter angenommen. Die intrinsischen Kameraparameter werden also stabil gehalten. Durch die Rücktransformation des Satzes aus Referenzbildkoordinaten von dem Bildkoordinatensystem in das Weltkoordinatensystem entsteht der Satz aus Referenzweltkoordinaten, welcher dann zur Bestimmung der räumlichen Unsicherheit zwischen dem Objektraum und dem Bildraum verwendet wird.
  • In einer weiteren Ausführungsform der Erfindung wird die Überführung des zumindest einen Referenzobjektpunktes von dem Weltkoordinatensystem in das Bildkoordinatensystem in Abhängigkeit von zumindest einem vorbestimmten extrinsischen Ideal-Kameraparameter durchgeführt. Die Projektion des in das Bildkoordinatensystem überführten Referenzobjektpunktes zurück in das Weltkoordinatensystem wird in Abhängigkeit von dem Probensatz durchgeführt.
  • Bei dieser Ausführungsform wird der Probensatz aus Zufallswerten des zumindest einen extrinsischen Kameraparameters erst in dem zweiten Transformationsschritt verwendet. Bei dem ersten Transformationsschritt können aus den Referenzweltkoordinaten Referenzbildkoordinaten eines zu dem Referenzobjektpunkt korrespondierenden Referenzbildpunktes in Abhängigkeit von dem zumindest einen vorbestimmten extrinsischen Ideal-Kameraparameter bestimmt werden. Bei dem ersten Transformationsschritt, bei welchen die Idealkalibrierung der Kamera angenommen wird und daher der zumindest eine vorbestimmte extrinsische Ideal-Kameraparameter verwendet wird, wird also aus dem Referenzobjektpunkt lediglich ein Referenzbildpunkt an einer bestimmten Referenzbildposition erzeugt. In dem zweiten Transformationsschritt kann aus den Referenzbildkoordinaten in Abhängigkeit von dem Probensatz der Satz aus Weltreferenzkoordinaten bestimmt werden. Der in dem ersten Transformationsschritt bestimmte, einzelne Referenzbildpunkt an der Referenzbildposition, welche mittels den Referenzbildkoordinaten beschrieben wird, wird also in Abhängigkeit von dem simulierten Probensatz in das Weltkoordinatensystem zurück transformiert. Dadurch entsteht erst in dem zweiten Transformationsschritt der Satz aus Referenzweltkoordinaten, welcher die räumliche Unsicherheit zwischen dem Bildraum und dem Objektraum beschreibt.
  • Vorzugsweise werden für den von dem Probensatz abhängigen Satz aus Referenzweltkoordinaten ein Mittelwert und eine Standardabweichung bestimmt. Die räumliche Unsicherheit wird in Abhängigkeit von dem Mittelwert und der Standardabweichung bestimmt. Da sich die Zufallswerte des extrinsischen Kameraparameters mittels einer Verteilung darstellen bzw. charakterisieren lassen, können sich insbesondere auch die Werte der Referenzweltkoordinaten mittels einer Verteilung darstellen bzw. charakterisieren lassen. Aus dieser Verteilung kann dann die räumliche Unsicherheit bestimmt werden. Die räumliche Unsicherheit, welche den systematischen Fehler innerhalb des zumindest einen, anhand der Bilddaten der Kamera erzeugten Bildes beschreibt, kann beispielsweise dem Bayes'schen Netz zugeführt werden.
  • Die Erfindung betrifft außerdem ein Fahrerassistenzsystem für ein Kraftfahrzeug aufweisend zumindest eine Kamera zum Erfassen von Bilddaten aus einem Umgebungsbereich des Kraftfahrzeugs und eine Bildverarbeitungseinrichtung, welche dazu ausgelegt ist, ein erfindungsgemäßes Verfahren oder eine vorteilhafte Ausführungsform davon durchzuführen. Das Fahrerassistenzsystem ist insbesondere als ein automatisches Linienmarkierungserkennungssystem ausgebildet. Mittels des Fahrerassistenzsystems können somit Fahrbahnmarkierungen, beispielsweise Linien auf einer Fahrbahnoberfläche für das Kraftfahrzeug, erkannt werden. Basierend auf den Fahrbahnmarkierungen kann der Fahrer beispielsweise beim Spurhalten oder bei Spurwechselmanövern unterstützt werden.
  • Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als ein Personenkraftwagen ausgebildet. Das Kraftfahrzeug kann beispielsweise ein Rundumsicht-Kamerasystem mit zumindest vier Kameras aufweisen, welche Bilddaten aus dem Umgebungsbereich rund um das Kraftfahrzeug erfassen können. Die Kameras weisen insbesondere Fischaugenobjektive auf.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Fahrerassistenzsystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.
  • Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Darstellung einer Ausführungsform eines erfindungsgemäßen Kraftfahrzeugs;
    • 2a bis 2d schematische Darstellungen von Messwerten extrinsischer Kameraparameter sowie Verteilungen der Messwerte der extrinsischen Kameraparameter;
    • 3a, 3b schematische Darstellungen von Probensätzen mit Zufallswerten der extrinsischen Kameraparameter;
    • 4 eine schematische Darstellung einer Koordinatentransformation zwischen einem Weltkoordinatensystem und einem Bildkoordinatensystem;
    • 5 eine schematische Darstellung von verzerrten Bilddaten einer Kamera des Kraftfahrzeugs;
    • 6 eine schematische Darstellung eines aus Bilddaten einer Kamera des Kraftfahrzeugs erzeugten Draufsichtbildes mit einer räumlichen Unsicherheit; und
    • 7 eine weitere schematische Darstellung einer Koordinatentransformation zwischen einem Weltkoordinatensystem und einem Bildkoordinatensystem.
  • In den Figuren sind gleiche sowie funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
  • 1 zeigt ein Kraftfahrzeug 1 gemäß der vorliegenden Erfindung. Das Kraftfahrzeug 1 ist im vorliegenden Fall als ein Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, welches einen Fahrer des Kraftfahrzeugs 1 bei seiner Fahraufgabe unterstützen kann. Dazu weist das Fahrerassistenzsystem 2 im vorliegenden Fall vier Kameras 3 auf, welche ein Rundumsicht-Kamerasystem 4 ausbilden. Die Kameras 3 sind dazu ausgelegt Bilddaten aus einem Umgebungsbereich 5 des Kraftfahrzeugs 1 zu erfassen. Die von den Kameras 3 erfassten Bilddaten können einer Bildverarbeitungseinrichtung 6 des Fahrerassistenzsystems 2 zugeführt werden, welche dazu ausgelegt ist, aus den Bilddaten der Kameras 3 Bilder des Umgebungsbereiches 5, beispielsweise Draufsichtbilder, zu erzeugen. Außerdem kann die Bildverarbeitungseinrichtung 6 dazu ausgelegt ist, in den Bilddaten Objekte 7, insbesondere Fahrbahnmarkierungen 8 auf einer Fahrbahn des Kraftfahrzeugs 1, zu erkennen sowie deren Positionen in einem Weltkoordinatensystem W zu bestimmen. Das Weltkoordinatensystem W ist ein dreidimensionales Koordinatensystem mit einer entlang einer Fahrzeuglängsrichtung orientierten x-Achse, einer entlang einer Fahrzeugquerrichtung orientierten y-Achse und einer entlang einer Fahrzeughochrichtung orientierten z-Achse.
  • Die von den Kameras 3 erfassten Bilddaten werden dabei in einem zweidimensionalen Bildkoordinatensystem I beschrieben, welches eine u-Achse in horizontaler Bildrichtung und eine v-Achse in vertikaler Bildrichtung aufweist. Ein Zusammenhang zwischen dem Weltkoordinatensystem W und dem Bildkoordinatensystem I wird über extrinsische und intrinsische Kameraparameter der Kameras 3 hergestellt. Durch die extrinsischen Kameraparameter, welche eine Position und eine Orientierung einer Kamera 3 in dem Weltkoordinatensystem W beschreiben, wird ein Zusammenhang zwischen dem Weltkoordinatensystem W und einem Kamerakoordinatensystem beschrieben. Durch die intrinsischen Kameraparameter wird ein Zusammenhang zwischen dem Kamerakoordinatensystem und dem Bildkoordinatensystem I beschrieben. Insbesondere die extrinsischen Kameraparameter können einen systematischen Fehler beim Erzeugen von Bildern aus den Bilddaten der Kameras 3 einführen, welcher eine räumliche Unsicherheit zwischen Objektpunkten in dem Weltkoordinatensystem W des Umgebungsbereiches 5 und Bildpunkten in dem Bildkoordinatensystem I des erzeugten Bildes beschreibt. Ein solches Bild 24 in Form von einem Draufsichtbild mit dem systematischen Fehler, welcher als eine Verteilung 25 visualisiert ist, ist beispielhaft in 6 gezeigt.
  • Um den systematischen Fehler 25 besonders zuverlässig bestimmen zu können, ist es wünschenswert, dass eine große Anzahl an Werten für die extrinsischen Kameraparameter bereitsteht. In 2a bis 2d sind Messwerte 9 von extrinsischen Kameraparametern Tz, Rx, Ry, Rz dargestellt, welche beispielsweise während einer Kamerakalibrierung der Kameras 3 gemessen werden können. 2a zeigt ein Histogramm aus Messwerten 9 für einen ersten extrinsischen Kameraparameter in Form von einer Translation Tz in z-Richtung. Auf der Abszisse ist dabei eine Position d angegeben, auf der Ordinate ist eine Anzahl A angegeben. Die Translation Tz in z-Richtung beschreibt eine Verschiebung der Kamera 3 bezüglich eines Ursprungs des Weltkoordinatensystems W. 2b zeigt ein Histogramm aus Messwerten 9 für einen zweiten extrinsischen Kameraparameter in Form von einer Rotation Rx um die x-Achse. 2c zeigt ein Histogramm aus Messwerten 9 für einen dritten extrinsischen Kameraparameter in Form von einer Rotation Ry um die y-Achse. In 2d ist ein Histogramm aus Messwerten 9 für einen vierten extrinsischen Kameraparameter in Form von einer Rotation Rz um die z-Achse dargestellt. Auf den Abszissen der 2b, 2c, 2d ist dabei ein Winkel α angegeben, auf der Ordinaten ist eine Anzahl A angegeben. Die Rotationen Rx, Ry, Rz um die jeweiligen Achsen x, y, z beschreiben Drehungen der Kamera 3 um die Euler-Winkel. Durch die Translationen und Rotationen kann eine Pose der Kamera 3 angegeben werden.
  • Diese Messwerte 9 der extrinsischen Kameraparameter Tz, Rx, Ry, Rz, welche zumeist nur in einer begrenzten, geringen Anzahl zur Verfügung stehen, werden durch jeweilige Verteilungen D1, D2, D3, D4, insbesondere Gaußverteilungen, angenähert. Für jede der Verteilungen D1, D2, D3, D4 wird außerdem zumindest ein, die Verteilung D1, D2, D3, D4 beschreibende Maß, beispielsweise ein Mittelwert und eine Standardabweichung, bestimmt. Eine erste Verteilung D1 gemäß 2a beschreibt dabei eine Verteilung der Messwerte 9 der Translation Tz, eine zweite Verteilung D2 gemäß 2b beschreibt die Verteilung der Messwerte 9 der Rotation Rx, eine dritte Verteilung D3 gemäß 2c beschreibt die Verteilung der Messwerte 9 der Rotation Ry und eine vierte Verteilung D4 gemäß 2d beschreibt die Verteilung der Messwerte 9 der Rotation Rz.
  • In 3a ist schematisch eine Verteilung D dargestellt, welche basierend auf Messwerten 9 eines extrinsischen Kameraparameters erzeugt wurde. Basierend auf der Verteilung D wird ein Verteilungsparameter 10 bestimmt. Der Verteilungsparameter 10 beschreibt insbesondere den Typ der Verteilung D, beispielsweise eine Gaußverteilung, sowie das zumindest eine die Verteilung D beschreibende Maß, beispielsweise den Mittelwert und die Standardabweichung. Basierend auf dem Verteilungsparameter 10 kann mittels Monte-Carlo-Simulation ein Probensatz 11 mit Zufallswerten 12 für den durch die Verteilung D beschriebenen extrinsischen Kameraparameter bestimmt werden. Dazu können die Zufallswerte 12 mittels eines deterministischen Zufallszahlengenerators erzeugt werden. Somit können beispielsweise ein Probensatz 11 mit Zufallswerten 12 für die Translation Tz, ein Probensatz 11 mit Zufallswerten 12 für die Rotation Rx, ein Probensatz 11 mit Zufallswerten 12 für die Rotation Ry und ein Probensatz 11 mit Zufallswerten 12 für die Rotation Ry bestimmt werden. In 3b ist gezeigt, dass die Probensätze 12, von welchen hier lediglich ein Probensatz 12 schematisch dargestellt ist, in Form von einer Matrix M mit Zeilen m und Spalten n repräsentiert werden können. Zeilen m der Matrix M werden durch Vektoren gebildet, wobei jeder Vektor die konkreten Werte x1 , x2 , xn der Zufallswerte 12 eines extrinsischen Kameraparameters umfasst. Bei den vier extrinsischen Kameraparametern Tz, Rx, Ry, Rz weist die Matrix M vier Zeilen m auf.
  • Basierend auf den Probensätzen 11 mit Zufallswerten 12 der extrinsischen Kameraparameter Tz, Rx, Ry, Rz wird eine Koordinatentransformation 13 durchgeführt, welche in 4 gezeigt ist. Die Koordinatentransformation 13 weist einen ersten Transformationsschritt 14 zwischen dem Weltkoordinatensystem W und dem Bildkoordinatensystem I und einen zweiten Transformationsschritt 19 zwischen dem Bildkoordinatensystem I und dem Weltkoordinatensystem W auf. Hier wird der erste Transformationsschritt 14 basierend auf den Probensätzen 11 durchgeführt, indem ein Referenzteilbereich 15 mit Referenzobjektpunkten, welche durch Referenzweltkoordinaten beschrieben werden, von dem Weltkoordinatensystem W in das Bildkoordinatensystem I überführt wird. Der Referenzteilbereich 15, eine sogenannte Region von Interesse, ist dabei in Weltkoordinaten x, y, z mit einer Höhe von 0 beschrieben. Dies bedeutet, dass Referenzteilbereich 15 ein zweidimensionaler Bereich ist, dessen z-Koordinaten 0 sind.
  • Außerdem werden in dem ersten Transformationsschritt 14 konstante intrinsische Kameraparameter 16 sowie konstante Translationsparameter 17 in x-Richtung und y-Richtung angenommen. Nach dem ersten Transformationsschritt 14 entsteht ein Rohbild mit einem Satz 18 aus Referenzbildkoordinaten, wobei der Satz 18 aus Referenzbildkoordinaten abhängig von den Probensätzen 11 mit den Zufallswerten 12 der extrinsischen Kameraparameter Tz, Rx, Ry, Rz ist. Eine Vielzahl von Sätzen 18 aus Referenzbildkoordinaten ist in 5 in einem durch Fischaugenlinsen der erfassenden Kamera 3 verzerrten Rohbild 22 gezeigt. Die Sätze 18 aus Referenzbildkoordinaten sind durch eine Verteilung 23 darstellbar, welche einen Fischaugenfehler beim Projizieren der Referenzweltkoordinaten des Referenzteilbereiches 15 in das Bildkoordinatensystem I beschreibt.
  • In dem zweiten Transformationsschritt 19 wird der Satz 18 aus Referenzbildkoordinaten von dem Bildkoordinatensystem I zurück in das Weltkoordinatensystem W projiziert. Dabei werden wieder die konstanten intrinsischen Kameraparameter 16 sowie die konstanten Translationsparameter 17 in x-Richtung und in y-Richtung aus dem ersten Transformationsschritt 14 verwendet. Außerdem wird ein Satz 20 aus extrinsischen Ideal-Kameraparameter verwendet, welcher eine ideale Kamerakalibrierung der Kamera 3 beschreibt. Bei dem zweiten Transformationsschritt 19 entsteht ein Satz 21 aus Referenzweltkoordinaten, anhand welchen der systematische Fehler bestimmt werden kann. Eine Vielzahl von Sätzen 21 aus Referenzweltkoordinaten ist in dem projizierten Draufsichtbild 24 in 6 gezeigt, wobei der systematische Fehler, welcher die räumliche Unsicherheit beschreibt, über eine Verteilung 25 repräsentiert werden kann. Anhand eines Mittelwertes sowie einer Standardabweichung der Verteilung 25 an jeder Bildposition in dem Draufsichtbild 24 kann die räumliche Unsicherheit beschrieben werden bzw. quantifiziert werden.
  • In 7 ist die Koordinatentransformation 13 mit dem ersten Transformationsschritt 14 und dem zweiten Transformationsschritt 19 gezeigt, wobei die Probensätze 11 im Vergleich zu der Koordinatentransformation 13 gemäß 4 während des zweiten Transformationsschrittes 19 verwendet werden. In dem ersten Transformationsschritt 14 wird der Referenzteilbereich 15 mit den Referenzobjektpunkten 26 mittels des Satzes 20 der extrinsischen Ideal-Kameraparameter, der hier nicht dargestellten konstanten intrinsischen Kameraparameter 16 und der konstanten Translationsparameter 17 in x-Richtung und in y-Richtung von dem Weltkoordinatensystem W in das Bildkoordinatensystem I transformiert. Dabei entsteht ein Rohbild 27 mit Referenzbildpunkten 28. Die Referenzbildkoordinaten der Referenzbildpunkte 28 weisen aufgrund der Annahme der Idealkalibrierung der Kamera 3 insbesondere keinen Fehler 23 auf. Diese Referenzbildpunkte 28 werden in dem zweiten Transformationsschritt 19 von dem Bildkoordinatensystem I zurück in das Weltkoordinatensystem W transformiert. Dazu werden die Probensätze 11 mit den Zufallswerten 12, die hier nicht dargestellten konstanten intrinsischen Kameraparameter 16 und die konstanten Translationsparameter 17 in x-Richtung und in y-Richtung verwendet. Dadurch wird in dem zweiten Transformationsschritt 19 der systematische Fehler 25 eingeführt.
  • Zum Bestimmen des systematischen Fehlers 25 kann dabei die anhand von 4 beschriebene Koordinatentransformation 13 oder die anhand von 7 beschriebene Koordinatentransformation 13 verwendet werden. Die in 4 und 7 dargestellten Koordinatentransformationen 13 produzieren identische Ergebnisse, also identische systematische Fehler 25, falls der erste Transformationsschritt 14 das ideale Inverse von dem zweiten Transformationsschritt 19 ist.

Claims (15)

  1. Verfahren zum Bestimmen einer räumlichen Unsicherheit (25) zwischen Objektpunkten in einem Umgebungsbereich (5) eines Kraftfahrzeugs (1) und die Objektpunkte abbildenden Bildpunkten in zumindest einem Bild (24) des Umgebungsbereiches (5), welches anhand von Bilddaten (22) zumindest einer Kamera (3) des Kraftfahrzeugs (1) erzeugt wird, wobei: - eine Verteilung (D, D1, D2, D3, D4) für zumindest einen extrinsischen Kameraparameter (Tz, Rx, Ry, Rz) der fahrzeugseitigen Kamera (3) vorgegeben wird, - ein Probensatz (11) mit Zufallswerten (12) des zumindest einen extrinsischen Kameraparameters (Tz, Rx, Ry, Rz) basierend auf der zumindest einen Verteilung (D, D1, D2, D3, D4) bestimmt wird, - mittels einer von dem Probensatz (12) abhängigen Koordinatentransformation (13) ein Satz (21) aus Referenzweltkoordinaten zumindest eines vorbestimmten Referenzobjektpunktes (26) in dem Umgebungsbereich (5) bestimmt wird, indem vorbestimmte Referenzweltkoordinaten des vorbestimmten Referenzobjektpunktes (26) von einem Weltkoordinatensystem (W) des Umgebungsbereiches (5) in ein Bildkoordinatensystem (I) der Bilddaten (22) überführt werden und zurück in das Weltkoordinatensystem (W) projiziert werden, und - die räumliche Unsicherheit (25) in Abhängigkeit von dem Satz (18) aus projizierten Referenzweltkoordinaten des Referenzobjektpunktes (26) bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass basierend auf der räumlichen Unsicherheit (25) ein systematischer Fehler zwischen zumindest einem Endpunkt einer Linienmarkierung (8) auf einer Fahrbahn des Kraftfahrzeugs (1) und einer Abbildung des Endpunktes in dem zumindest einen anhand der Bilddaten (22) der zumindest einen Kamera (3) erzeugten Bild (24) der Fahrbahn bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass ein Typ der Verteilung (D, D1, D2, D3, D4) und/oder zumindest ein die Verteilung (D, D1, D2, D3, D4) beschreibendes Maß, insbesondere ein Mittelwert und/oder eine Standardabweichung von Werten des zumindest einen extrinsischen Kameraparameters (Tz, Rx, Ry, Rz), bestimmt wird und der Probensatz (11) in Abhängigkeit von dem Typ der Verteilung (D, D1, D2, D3, D4) und/oder dem zumindest einen Maß bestimmt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als der zumindest eine extrinsische Kameraparameter (Tz, Rx, Ry, Rz) zumindest eine Rotation (Rx, Ry, Rz) und/oder zumindest eine Translation (Tz) bestimmt wird, wobei für jeden extrinsischen Kameraparameter (Tz, Rx, Ry, Rz) jeweils eine Verteilung (D, D1, D2, D3, D4) sowie ein Probensatz (11) mit Zufallswerten (12) bestimmt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Probensatz (11) mit Zufallswerten (12) des zumindest einen extrinsischen Kameraparameters (Tz, Rx, Ry, Rz) mittels einer Monte-Carlo-Methode in Abhängigkeit von der zumindest einen Verteilung simuliert wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass bei der Monte-Carlo-Methode die Zufallswerte (12) mittels eines deterministischen Zufallszahlengenerators in Abhängigkeit von der zumindest einen Verteilung (D, D1, D2, D3, D4) erzeugt werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zumindest eine Verteilung (D, D1, D2, D3, D4) vorgegeben wird, indem Messwerte (9) des zumindest einen extrinsischen Kameraparameters (Tz, Rx, Ry, Rz) mittels einer vorbestimmten Verteilungsfunktion, insbesondere einer Gaußverteilung, angenähert werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Messwerte (9) des zumindest einen extrinsischen Kameraparameters (Tz, Rx, Ry, Rz) während zumindest einer Kamerakalibrierung der zumindest einen Kamera (3) gemessen werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Koordinatentransformation (13) zusätzlich in Abhängigkeit von zumindest einem vorgegebenen intrinsischen Kameraparameter (16) durchgeführt wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein zweidimensionaler Referenzteilbereich (15) in dem Umgebungsbereich (5) mit Referenzobjektpunkten (26) vorgegeben wird und die Koordinatentransformation (13) auf den Referenzobjektpunkten (26) des Referenzteilbereiches (15) durchgeführt wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Überführung des zumindest einen Referenzobjektpunktes (26) von dem Weltkoordinatensystem (W) in das Bildkoordinatensystem (I) in Abhängigkeit von dem Probensatz (11) durchgeführt wird und - die Projektion des in das Bildkoordinatensystem (I) überführten Referenzobjektpunktes (26) zurück in das Weltkoordinatensystem (W) in Abhängigkeit von zumindest einem vorbestimmten extrinsischen Ideal-Kameraparameter (20) durchgeführt wird.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass - die Überführung des zumindest einen Referenzobjektpunktes (26) von dem Weltkoordinatensystem (W) in das Bildkoordinatensystem (I) in Abhängigkeit von zumindest einem vorbestimmten extrinsischen Ideal-Kameraparameter (20) durchgeführt wird und - die Projektion des in das Bildkoordinatensystem (I) überführten Referenzobjektpunktes (26) zurück in das Weltkoordinatensystem (W) in Abhängigkeit von dem Probensatz (11) durchgeführt wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für den von dem Probensatz (11) abhängigen Satz (21) aus Referenzweltkoordinaten ein Mittelwert und eine Standardabweichung bestimmt werden und die räumliche Unsicherheit (25) in Abhängigkeit von dem Mittelwert und der Standardabweichung bestimmt wird.
  14. Fahrerassistenzsystem (2) für ein Kraftfahrzeug (1) aufweisend zumindest eine Kamera (3) zum Erfassen von Bilddaten (22) aus einem Umgebungsbereich (5) des Kraftfahrzeugs (1) und eine Bildverarbeitungseinrichtung (6), welche dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  15. Kraftfahrzeug (1) mit einem Fahrerassistenzsystem (2) nach Anspruch 14.
DE102017115587.2A 2017-07-12 2017-07-12 Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug Pending DE102017115587A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017115587.2A DE102017115587A1 (de) 2017-07-12 2017-07-12 Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
PCT/EP2018/068827 WO2019012004A1 (en) 2017-07-12 2018-07-11 METHOD FOR DETERMINING SPATIAL UNCERTAINTY IN IMAGES OF AN ENVIRONMENTAL REGION OF A MOTOR VEHICLE, DRIVING ASSISTANCE SYSTEM AND MOTOR VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017115587.2A DE102017115587A1 (de) 2017-07-12 2017-07-12 Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102017115587A1 true DE102017115587A1 (de) 2019-01-17

Family

ID=62904476

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017115587.2A Pending DE102017115587A1 (de) 2017-07-12 2017-07-12 Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug

Country Status (2)

Country Link
DE (1) DE102017115587A1 (de)
WO (1) WO2019012004A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961522B (zh) * 2019-04-02 2023-05-05 阿波罗智联(北京)科技有限公司 图像投射方法、装置、设备和存储介质
CN111751824B (zh) * 2020-06-24 2023-08-04 杭州海康汽车软件有限公司 车辆周围的障碍物检测方法、装置及设备
CN113223076B (zh) * 2021-04-07 2024-02-27 东软睿驰汽车技术(沈阳)有限公司 车辆与车载摄像头的坐标系标定方法、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112010005008T5 (de) * 2009-12-24 2012-11-15 Cognex Corporation System und Verfahren zur Laufzeitbestimmung von Kamerafehlkalibrierung

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012139636A1 (en) * 2011-04-13 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road surface texture tracking and geometric properties
WO2012139660A1 (en) * 2011-04-15 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road marking extractions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112010005008T5 (de) * 2009-12-24 2012-11-15 Cognex Corporation System und Verfahren zur Laufzeitbestimmung von Kamerafehlkalibrierung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
C. H. Kum, D. C. Cho, M. S. Ra and W. Y. Kim: Lane detection system with around view monitoring for intelligent vehicle. In: 2013 International SoC Design Conference (ISOCC), Busan, 2013, pp. 215-218.DOI: 10.1109/ISOCC.2013.6864011 *
S. Hold, S. Gormer, A. Kummert, M. Meuter and S. Muller-Schneiders: A novel approach for the online initial calibration of extrinsic parameters for a car-mounted camera. In: 2009 12th International IEEE Conference on Intelligent Transportation Systems, St. Louis, MO, 2009, pp. 1-6.DOI: *

Also Published As

Publication number Publication date
WO2019012004A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
EP1065628B1 (de) Optische 3-D Messung mit mehreren Näherungspunkten
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102013108070A1 (de) Bildkalibrierung und Entzerrung einer Weitwinkelkamera
DE112013004103B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE102004033114A1 (de) Verfahren zur Kalibrierung eines Abstandsbildsensors
DE102015011914A1 (de) Konturlinienmessvorrichtung und Robotersystem
DE102014201271A1 (de) Verfahren und Steuergerät zum Erkennen einer Veränderung eines relativen Gierwinkels innerhalb eines Stereo-Video-Systems für ein Fahrzeug
EP3308361B1 (de) Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
DE102012223373A1 (de) Vorrichtung und Verfahren zum Korrigieren einer Bildverzerrung von einer Heckkamera
DE102017115587A1 (de) Verfahren zum Bestimmen einer räumlichen Unsicherheit in Bildern eines Umgebungsbereiches eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102015104065A1 (de) Verfahren zum Bestimmen einer Position eines Objekts in einem dreidimensionalen Weltkoordinatensystem, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
WO2014009406A1 (de) VERFAHREN UND VORRICHTUNG ZUM BERECHNEN EINER VERÄNDERUNG EINES ABBILDUNGSMAßSTABS EINES OBJEKTS
EP1352363B1 (de) Verfahren und vorrichtung zum kompensieren einer dejustage einer bilderzeugungsvorrichtung
DE102020215420A1 (de) Verfahren zum Kalibrieren mindestens einer Kamera
DE102014219428B4 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102004001572B4 (de) Laufzeit-Kalibrierungsverfahren
EP3420533B1 (de) Verfahren zum kalibrieren eines optischen messaufbaus
DE112021006799T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und signalverarbeitungssystem
DE102014219418B4 (de) Verfahren zur Stereorektifizierung von Stereokamerabildern und Fahrerassistenzsystem
EP3465608B1 (de) Verfahren und vorrichtung zum bestimmen eines übergangs zwischen zwei anzeigebildern, und fahrzeug
DE102020107949A1 (de) Sichtfeldunterstützungsbild-Erzeugungsvorrichtung und Bildumwandlungsverfahren
DE102007021107B4 (de) Vorrichtung und Verfahren zum Bestimmen des Hauptpunktes eines Kamerasystems
WO2015149970A1 (de) Verfahren und vorrichtung zum anpassen einer dreidimensionalen projektionsfläche zum projizieren einer mehrzahl benachbarter kamerabilder

Legal Events

Date Code Title Description
R163 Identified publications notified