DE102018221133A1 - Positions- und Bewegungserkennung mittels Autofokussystem - Google Patents

Positions- und Bewegungserkennung mittels Autofokussystem Download PDF

Info

Publication number
DE102018221133A1
DE102018221133A1 DE102018221133.7A DE102018221133A DE102018221133A1 DE 102018221133 A1 DE102018221133 A1 DE 102018221133A1 DE 102018221133 A DE102018221133 A DE 102018221133A DE 102018221133 A1 DE102018221133 A1 DE 102018221133A1
Authority
DE
Germany
Prior art keywords
autofocus
information
designed
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102018221133.7A
Other languages
English (en)
Inventor
Adriano Handrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018221133.7A priority Critical patent/DE102018221133A1/de
Publication of DE102018221133A1 publication Critical patent/DE102018221133A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

Vorrichtung (21), die dazu ausgelegt ist, mittels Autofokussierung von Bilddaten Positionsinformationen (P(t); x(t), y(t), z(t); 51), Bewegungsinformationen (V(t)), und/oder Forminformationen (Obj) bezüglich einem Objekt (G) abzuschätzen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft ein Verfahren und ein autofokussierbares Fokussiersystem.
  • TECHNISCHER HINTERGRUND
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Beim autonomen Fahren übernimmt das Steuerungssystem des Fahrzeugs vollständig oder weitestgehend die Rolle des Fahrers. Autonome (bzw. teilautonome) Fahrzeuge können mit Hilfe verschiedener Sensoren ihre Umgebung wahrnehmen, aus den gewonnenen Informationen ihre Position und die anderen Verkehrsteilnehmer bestimmen und mithilfe des Steuerungssystems und der Navigationssoftware des Fahrzeugs das Fahrziel ansteuern und im Straßenverkehr entsprechend agieren.
  • Bisher werden Ultraschall, Lidar, Radar und dergleichen eingesetzt, um die Entfernung und Bewegung von Gegenständen, Verkehrsteilnehmern usw. zu bestimmen. Autonome Fahrzeuge erhalten beispielsweise mittels Radar Position und Geschwindigkeit von Objekten, wie anderen Verkehrsteilnehmern oder Hindernissen.
    Hiervon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Bestimmung einer Entfernung und Bewegung eines Objekts bereitzustellen, mit denen die Positions- und Bewegungserkennung optimiert wird.
  • Diese Aufgabe wird durch die Vorrichtung nach Anspruch 1 und das Verfahren nach Anspruch 12 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.
  • Die Ausführungsbeispiele zeigen eine Vorrichtung, die dazu ausgelegt ist, anhand von schärfe Informationen Fokussierung von Bilddaten Positionsinformationen, Bewegungsinformationen, Beschleunigungs- und/oder Forminformationen bezüglich einem Objekt abzuschätzen.
  • Die Vorrichtung kann beispielweise eine Kompaktkamera, eine Spiegelreflexkamera oder eine Wärmebildkamera sein, die ein Fokussiersystem umfasst.
  • Die Vorrichtung, beispielsweise die Kamera, kann in einem beweglichen System verbaut sein, zum Beispiel in einem Fahrzeug (z.B. PKW, LKW), einem Schiff, oder in einem Mobilgerät wie einem Smartphone.
  • Die Autofokussierung kann beispielsweise über eine Kontrast- bzw. Kantenschärfenoptimierung (im für die z.B. Kamera sichtbaren Spektrum) erfolgen.
  • Positionsinformationen bezüglich dem Objekt können zum Beispiel durch Bestimmen der Position des Objekts werden, wobei die Position in einer Dimension, zwei Dimensionen oder drei Dimensionen bestimmt sein kann.
    Positionsinformationen können auch Weginformationen umfassen, welche die Position des Objekts über der Zeit beschreiben.
  • Bewegungsinformation ist beispielsweise die Geschwindigkeit und/oder die Beschleunigung des Objekts. Bewegungsinformationen können beispielsweise aus den Weginformationen abgeleitet werden.
    Forminformationen können beispielsweise eine Information über die Größe des Objekts oder einer Größenänderung enthalten.
  • Vorzugsweise ist die Vorrichtung dazu ausgelegt, mittels Autofokussierung eine Entfernungsmessung bezüglich dem Objekt durchzuführen. Gemäß einem Ausführungsbeispiel variiert die Vorrichtung die Bildweite so lange, bis ein Maximum der Bildschärfe erreicht ist. Auf Grundlage dieser Bildweite wird dann die Entfernung bezüglich dem Objekt ermittelt.
  • Die Vorrichtung kann beispielsweise die Fokussierstellung eines Linsensystems auslesen und beispielsweise aus Bildweite und Brennweite des Linsensystems (mit Messunsicherheit der Tiefenschärfe) auf die Gegenstandsweite, also die Entfernung des Objekts, schließen.
  • Des Weiteren können über eine Positionsmessung auch die durch das Linsensystem statisch verursachten Verzeichnungen zur Plausibilisierung der Position genutzt werden.
    Vorzugsweise ist die Vorrichtung dazu ausgelegt, eine Kantenkontrastmessung in vorbestimmten Bildausschnitten durchzuführen, um eine Schärfeebene zu ermitteln. Die Vorrichtung ist vorzugsweise dazu ausgelegt, aus dem Grad der Bildschärfe in ein oder mehreren Autofokusmessfeldern darauf rückzuschließen, ob in den jeweiligen Autofokusmessfeldern ein fokussiertes Objekt bzw. mehrerer Objekte abgebildet ist, oder nicht und auf Grundlage der Positionen dieser Autofokusmessfelder im Pixelraum die Position des Objekts zu ermitteln.
  • Die Vorrichtung kann beispielweise mehrere Bildausschnitte bzw. Autofokusmessfelder bereitstellen, die den Bildbereich so weit wie möglich abdecken. Die Summe der Bildausschnitte/Autofokusmessfeldflächen kann jedoch auch kleiner als der gesamte Bildbereich sein. Jeder Bildausschnitt bzw. jedes Autofokusmessfeld kann einer bestimmten Gruppe von Pixeln eines Bildsensors zugeordnet sein.
    Die Vorrichtung ist vorzugsweise dazu ausgelegt, auf Grundlage der Positionen der Bildausschnitte bzw. Autofokusmessfelder im Pixelraum die relative Position des Objekts im Referenzraum der Vorrichtung zu ermitteln.
  • Die Vorrichtung ist vorzugsweise auch dazu ausgelegt, eine Form des Objekts durch Akkumulieren der relativen Positionen jener Autofokusmessfelder, welche ein Objekt erfasst haben, abzuschätzen.
    Die Vorrichtung ist vorzugsweise auch dazu ausgelegt, durch eine Ermittlung der Positionskoordinaten des Objekts eine Weginformation bezüglich dem Objekt, insbesondere eine Objekttrajektorie zu ermitteln. Eine Objekttrajektorie stellt Weginformationen bezüglich dem Objekt dar.
  • Die Bewegungsinformationen umfassen vorzugsweise Informationen über die (Relativ-) Geschwindigkeit oder Beschleunigung des Objekts.
  • Die Vorrichtung ist vorzugsweise dazu ausgelegt, durch Einbeziehung von Positionsinformationen und Lageinformationen in einem geodätischen Referenzsystem Weginformationen des Objekts im geodätischen Referenzsystem zu ermitteln. Beispielsweise kann unter Verwendung einer GPS-Einheit und eines Lagesensors eine Trajektorie für das Objekt im geodätischen Referenzsystem zu bestimmen.
  • Die Vorrichtung ist vorzugsweise dazu ausgelegt, Messdaten von weiteren Sensoren oder kamerabasierten Objekterkennungsmethoden mit in die Bestimmung der Positionsinformationen, Bewegungsinformationen und/oder Forminformationen mit einzubeziehen. Das Bildfeld der Kamera kann beispielsweise zunächst zur Plausibilisierung der über andere Verfahren ermittelten Objektpositionen und -bewegungen verwendet werden (Sensormerging). Der Autofokus einer Kamera kann zusätzliche Rückschlüsse ermöglichen auf Entfernungen und Bewegungen von Objekten und somit eine adäquatere Reaktion eines z.B. autonom fahrenden Fahrzeuges erzeugen.
  • Die Vorrichtung kann ein oder auch mehrere Fokussiersysteme umfassen. Durch Kombination mehrerer Fokussiersysteme (z.B. Autofokus-Kameras) können Position, Geschwindigkeit, Beschleunigungsänderungen präziser ermittelt werden, weil das zeitraubende Fokussieren auf mehrere Systeme aufgeteilt werden kann.
    Die Ausführungsbeispiele offenbaren ferner auch ein Verfahren, bei dem anhand von schärfe Informationen Fokussierung von Bilddaten, Bewegungsinformationen, und/oder Forminformationen eines Objekts abgeschätzt werden.
  • Das Verfahren kann ein computerimplementiertes Verfahren sein, das in einem Prozessor abläuft. Die Ausführungsbeispiele offenbaren somit auch ein Computerprogramm, bei dem mittels Autofokussierung von Bilddaten, Bewegungsinformationen, und/oder Forminformationen eines Objekts abgeschätzt werden.
  • Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:
    • 1 ein Blockdiagramm zeigt, das schematisch die Konfiguration eines Fahrzeugs mit einer Steuerungseinheit für autonomes (oder teilautonomes) Fahren darstellt,
    • 2 ein Blockdiagramm zeigt, das eine beispielhafte Konfiguration einer Steuerungseinheit (ECU 1, 2, 3, 4 und 5 in 1) darstellt,
    • 3 schematisch eine schematische Darstellung einer Autofokus-Kamera/eines Fokussiersystems zeigt,
    • 4 schematisch eine beispielhafte Anordnung von Autofokusmessfeldern eines Autofokussystems eines Fokussierungssystems zeigt,
    • 5 schematisch eine Positions- bzw. Bewegungsschätzung eines Objekts anhand der mittels des Autofokussystems gewonnenen Positionskoordinaten zeigt, und
    • 6 ein Flussdiagramm eines Prozesses zur Abschätzung der Position, Bewegung und Form eines Objekts mittels einem Fokussiersystem zeigt.
  • 1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs mit einer Steuerungseinheit für autonomes (oder teilautonomes) Fahren gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das autonome Fahrzeug ist ein Fahrzeug, das ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Beim autonomen Fahren übernimmt das Steuerungssystem des Fahrzeugs vollständig oder weitestgehend die Rolle des Fahrers. Autonome (bzw. teilautonome) Fahrzeuge können mit Hilfe verschiedener Sensoren ihre Umgebung wahrnehmen, aus den gewonnenen Informationen ihre Position und die anderen Verkehrsteilnehmer bestimmen und mithilfe des Steuerungssystems und der Navigationssoftware des Fahrzeugs das Fahrziel ansteuern und im Straßenverkehr entsprechend agieren.
  • Das autonome Fahrzeug 1 umfasst mehrere elektronische Komponenten, welche via ein Fahrzeugkommunikationsnetzwerk 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein Ethernet-basierter LAN-Bus (local area network), ein MOST-Bus, ein LVDS-Bus oder dergleichen sein.
  • In dem in 1 dargestellten Beispiel umfasst das autonome Fahrzeug 1 eine Steuerungseinheit 12 (ECU 1), die ein Lenksystem steuert. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuerungseinheit 14 (ECU 2), die ein Bremssystem steuert. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuerungseinheit 16 (ECU 3), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/Propellerwelle, ein Differential und einen Achsantrieb umfassen.
  • Das autonome Fahrzeug 1 umfasst ferner eine Steuerungseinheit für autonomes Fahren 18 (ECU 4). Die Steuerungseinheit für autonomes Fahren 18 ist dazu ausgelegt, das autonome Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Die Steuerungseinheit für autonomes Fahren 18 steuert ein oder mehrere Fahrzeugsubsysteme, während das Fahrzeug im autonomen Modus betrieben wird, nämlich das Bremssystem 14, das Lenksystem 12 und das Antriebssystem 14. Hierfür kann die Steuerungseinheit für autonomes Fahren 18 beispielsweise über das Fahrzeugkommunikationsnetzwerk 28 mit den entsprechenden Steuerungseinheiten 12, 14 und 16 kommunizieren.
    Die Steuerungseinheiten 12, 14 und 16 können ferner von den oben genannten Fahrzeugsubsystemen Fahrzeugbetriebsparameter empfangen, die diese mittels einem oder mehreren Fahrzeugsensoren erfassen. Fahrzeugsensoren sind vorzugsweise solche Sensoren, die einen Zustand des Fahrzeugs oder einen Zustand von Fahrzeugteilen erfassen, insbesondere deren Bewegungszustand. Die Sensoren können einen Fahrzeuggeschwindigkeitssensor, einen Gierraten-Sensor, einen Beschleunigungssensor, einen Lenkradwinkelsensor, einen Fahrzeuglastsensor, Temperatursensoren, Drucksensoren und dergleichen umfassen. Beispielsweise können auch Sensoren entlang der Bremsleitung angeordnet sein, um Signale auszugeben, die den Bremsflüssigkeitsdruck an verschiedenen Stellen entlang der hydraulischen Bremsleitung anzeigen. Andere Sensoren in der Nähe des Rades können vorgesehen sein, welche die Radgeschwindigkeit und den Bremsdruck erfassen, der am Rad aufgebracht wird.
  • Das autonome Fahrzeug 1 umfasst ferner eine Autofokus-Kamera 21, die dazu ausgelegt ist, optische Informationen zu erfassen. Die Autofokus-Kamera 21 kann innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs angeordnet sein. Beispielsweise kann die Autofokus-Kamera in einem vorderen Bereich des Fahrzeugs 1 zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs eingebaut sein. Die Autofokus-Kamera 21 erfasst Bilddaten und überträgt diese beispielsweise an eine zentrale Steuerungseinheit 25 (oder alternativ an die Steuerungseinheit für autonomes Fahren, ECU 4). Die Autofokus-Kamera 21 ist dazu ausgelegt, zusätzlich zu den Bilddaten Meta-Informationen, wie beispielsweise Positionsinformationen, Bewegungsinformationen (V(t)), und/oder Forminformationen (Obj) bezüglich ein oder mehreren Objekten im Bildbereich zu ermitteln und an die zentrale Steuerungseinheit 25 (oder alternativ an die Steuerungseinheit für autonomes Fahren, ECU 4) zu übermitteln. Ferner kann die Autofokus-Kamera 21 auch weitere Metainformationen wie Aufnahmezeitpunkt und Verzeichnungseigenschaften der Autofokus-Kamera 21 übertragen. Die zentrale Steuerungseinheit 25 kann die erhaltenen Informationen selbst auswerten oder beispielsweise an die Steuerungseinheit für autonomes Fahren 18 weiter übertragen. Basierend auf diesen Informationen der Autofokus-Kamera 21 kann beispielsweise die Position bzw. die Bewegung (Geschwindigkeit und/oder die Beschleunigung) zwischen dem autonomen Fahrzeug 1 und einem Objekt bestimmt werden. Des Weiteren kann beispielsweise die Änderung der Objektgröße basierend auf diesen Informationen der Autofokus-Kamera 21 ermittelt werden.
  • Das autonome Fahrzeug 1 umfasst ferner eine GPS/Lagesensor-Einheit 22. Die GPS/ Lagesensor-Einheit 22 ermöglicht die absolute Positionsbestimmung des autonomen Fahrzeugs 1 bezüglich einem geodätischen Referenzsystem (Erdkoordinaten). Bei dem Lagesensor kann es sich beispielsweise um einen Gyrosensor oder dergleichen handeln, der auf Beschleunigungen, Drehbewegungen oder Lageänderungen reagiert.
  • Das autonome Fahrzeug 1 umfasst ferner eine oder mehrere weitere Sensoreinheiten 23. Bei den weiteren Sensoreinheiten 23 kann es sich beispielsweise um eine Radareinheit, Lidareinheit, Ultraschallsensoren oder andere Einheiten handeln. Daten aus einer Abstands- und Geschwindigkeitsmessung werden von diesen weiteren Sensoreinheiten 23 erfasst und beispielsweise an die zentrale Steuerungseinheit 25 (oder alternativ an die Steuerungseinheit für autonomes Fahren, ECU 4) übertragen. Basierend auf den Daten dieser Sensoreinheiten 23 wird ein Abstand zwischen dem autonomen Fahrzeug 1 und ein oder mehreren Objekten bestimmt. Die zentrale Steuerungseinheit 25 kann die erhaltenen Informationen selbst auswerten oder beispielsweise an die Steuerungseinheit für autonomes Fahren 18 weiter übertragen. Das autonome Fahrzeug 1 umfasst ferner Fahrzeugaktuatorik 20 wie zum Beispiel Steller, Ventile, Klappen Kühlerlüfter, Pumpen, Glühung, Zündspulen und dergleichen, und Fahrzeugsensorik 24 wie zum Beispiel Temperatur- und Drucksensorik, Mediensensorik (Kraftstoff, Luftmasse, Wasser), Ölsensorik, Nockenwellen- und Kurbelwellen-Sensorik (Drehzahl und Position), Abgassensorik (z.B. Lambda, NOx, Abgastemperatur und Partikel) und Pedalwertgeber und dergleichen.
  • Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuerungseinheit für autonomes Fahren 18 auf Grundlage der zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, auf Grundlage der von der Sensoreinheit 23 empfangenen Daten, auf Grundlage von mittels der Autofokus-Kamera 21 aufgenommenen Daten, sowie auf Grundlage von mittels der Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuerungseinheit 18 von den Steuerungseinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen).
  • 2 zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuerungseinheit (ECU 1, 2, 3, 4 und 5 in 1) darstellt. Bei der Steuerungseinheit kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder electronic control module ECM) handeln. Die Steuerungseinheit umfasst einen Prozessor 210. Bei dem Prozessor 210 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt. Die Radarsteuerungseinheit umfasst ferner einen Nur-Lese-Speicher, ROM 230 (ROM = Read-only memory) und einen Direktzugriffsspeicher, RAM 220 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.), die als Programmspeicherbereich und als Datenspeicherbereich dienen. Ferner umfasst die Radarsteuerungseinheit zur Speicherung von Daten und Programmen ein Speicherlaufwerk 260, wie beispielsweise ein Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD). Die Steuerungseinheit umfasst ferner ein Fahrzeugkommunikationsnetzwerk-Interface 240, über welche die Steuerungseinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 2) kommunizieren kann. Jede der Einheiten der Steuerungseinheit ist über ein Kommunikationsnetzwerk 250 verbunden. Insbesondere kann die Steuerungseinheit der 2 als eine Implementierung der zentralen Steuerungseinheit 25, ECU 5, der 1 dienen, wobei ROM 230, RAM 220 und Speicherlaufwerk 260 als Programmspeicherbereich für Programme zur Auswertung von Bilddaten (z.B. dem Prozess der 11) und als Datenspeicherbereich für Bilddaten dienen.
  • Bestimmung der Objektentfernung
  • 3 zeigt schematisch eine schematische Darstellung der Autofokus-Kamera 21. Die Autofokus-Kamera 21 umfasst ein Objektiv, hier vereinfacht als Linse L dargestellt. Der Brennpunkt BP der Linse L befindet sich im Abstand der Brennweite f, wobei die Brennweite f durch die Eigenschaft der Linse L vorbestimmt ist. In einem bestimmten Abstand von der Linse L (Bildweite b) befindet sich eine Bildebene B (Sensor). Die Kamera ist auf ein Objekt G gerichtet, das sich in einer bestimmten Entfernung (Gegenstandsweite g) von der Linse L befindet. Das Objekt G wird auf die Bildebene B abgebildet. Die Bildweite b, die Brennweite f der dünnen Linse L und die Gegenstandsweite g stehen in einem Zusammenhang, der durch die Linsengleichung wie folgt beschrieben wird: 1 f = 1 b + 1 g
    Figure DE102018221133A1_0001
  • Diese Linsengleichung GL1 ist eine vereinfachte Gleichung, die Verzeichnungen, Dispersionen und weitere Parameter unberücksichtigt lässt. Es liegt im Bereich des gängigen Fachwissens, solche Aspekte zu ergänzen.
  • Wenn das Bild B scharf gestellt ist, entspricht die Gegenstandweite g der Entfernung z des Objekts G von der Linse L. Daher kann durch Ermittlung der Gegenstandsweite g auf Grundlage der Gleichung GL2 die Entfernung z des Objekts G wie folgt ermittelt werden: z g = f × b b f
    Figure DE102018221133A1_0002
  • Das Verhältnis der Bildgröße B zur Objektgröße G ist wie folgt: B = G × g b
    Figure DE102018221133A1_0003
  • Auf dieser Grundlage kann die Autofokus-Kamera 21 für eine Entfernungsmessung zwischen dem Objekt G und der Autofokus-Kamera 21 verwendet werden:
  • Um das Bild B scharf zu stellen, variiert ein Autofokussystem der Autofokus-Kamera 21 die Bildweite b des Objektivs solange, bis das Bild scharf gestellt ist. Die Bildweite b, bei der das Bild scharf ist (der „Autofokus“) kann vom Autofokussystem beispielsweise durch Kantenkontrastmessung ermittelt werden. Bei der Kontrastmessung misst das Autofokussystem auf dem Bildsensor den Kontrast benachbarter Pixel. Das Bild ist scharfgestellt bei maximalem Kontrast. Beispielsweise ermittelt ein Prozessor der Autofokus-Kamera 21 bzw. des Autofokussystems der Autofokus-Kamera 21 die Frequenzverteilung im Bild. Je größer der Anteil der hohen Frequenzen im Bild, desto schärfer (kontrastreicher) ist das Bild.
  • Das Autofokussystem der Autofokus-Kamera 21 variiert die Bildweite so lange in eine und dann in die andere Richtung, bis ein Maximum der Bildschärfe gefunden ist (d.h. die Bildschärfe bzw. der Kontrast sich in beide Richtungen verschlechtern).
  • Die Kantenkontrastmessung kann sich auf beliebige Bildausschnitte (z.B. Autofokusmessfelder oder dergleichen) beziehen. Je größer der Ausschnitt, desto genauer lässt sich eine Schärfeebene ermitteln.
  • Alternativ kann das Scharfstellen des Bildes B statt mit einer Kantenkontrastmessung auch auf einem Phasenvergleich beruhen, d.h. bei dem Autofokussystem der Autofokus-Kamera 21 kann es sich auch um einen Phasenerkennungsautofokus handeln.
  • Die Fokussierung der Autofokus-Kamera 21 kann somit für eine Entfernungsmessung zwischen dem Objekt G und der Autofokus-Kamera 21 verwendet werden.
  • Bestimmung der Objektposition
  • 4 zeigt schematisch eine beispielhafte Anordnung von Autofokusmessfeldern eines Autofokussystems der Autofokus-Kamera 21. Die Autofokusmessfelder M11-M77 bilden Bildausschnitte, in denen das Autofokussystem eine Kontrastmessung durchführt, um eine Schärfeebene zu ermitteln.
  • Eine Anzahl N (hier N = 49) an Autofokusmessfeldern M11-M77 deckt den Bildbereich 41 der Autofokus-Kamera 21 ab. Um das Bild scharf zu stellen, variiert das Autofokussystem der Autofokus-Kamera 21 die Bildweite des Objektivs solange, bis das Bild in einem oder mehreren der Autofokusmessfelder M11-M77 scharf eingestellt ist. Dabei können Methoden zur Autofokussierung zur Anwendung kommen, die dem Fachmann für Videokameras, Spiegelreflexkameras oder Kompaktkameras bekannt sind.
  • Jedem Autofokusmessfeld Mi,j ist durch das Autofokussystem ein Bildschärfewert Ii,j (bzw. Kontrastwert) zugeordnet, der beispielsweise den Anteil der hohen Frequenzen im Bild wiedergibt, also den Grad der Bildschärfe im Autofokusmessfeld. Sei Mi,j das Autofokusmessfeld mit den Koordinaten i, j.
  • Aus dem Grad der Bildschärfe Ii,j im Autofokusmessfeld Mi,j kann darauf rückgeschlossen werden, ob in dem Autofokusmessfeld ein fokussiertes Objekt abgebildet ist, oder nicht. Wenn der Kontrast innerhalb eines Autofokusmessfeld Mi,j höher als ein Bildschärfemaximalwert Imax ist, wird festgestellt, dass das Autofokusmessfeld Mi,j ein Objekt abbildet. Die punktiert dargestellten Autofokusmessfelder M34-M35, M44-M46, M55 zeigen beispielhaft jene Autofokusmessfelder in welchen der Bildschärfewert über dem Schwellwert Ith liegt und folglich auf ein erkanntes Objekt rückgeschlossen werden kann.
  • Jedes der Autofokusmessfelder Mi,j entspricht einem jeweiligen Teilbereich des Kamerasensors und ist somit mit mehreren Pixeln der Kamera 21 korreliert. So kann jedem der Autofokusmessfelder Mi,j ein zweidimensionaler Vektor P ( i , j ) = ( p x ( i , j ) , p y ( i , j ) )
    Figure DE102018221133A1_0004
    im Pixelraum zugeordnet werden, der die Position P(i,j) des Autofokusmessfelds Mi,j beschreibt, beispielsweise die Position des Mittelpunkts des Autofokusmessfelds bzw. des Bildausschnitts.
  • Aus dem Schwerpunkt der Positionen P(i,j) jener Autofokusmessfelder Mi,j, im Pixelraum, in welchen der Bildschärfewert Ii,j über dem Maximalwert Imax liegt, kann auf eine Objektposition (x, y) im Pixelraum rückgeschlossen werden: ( x ¯ , y ¯ ) = P ¯ = i , j P ( i , j ) | I i , j > I max i , j 1 | I i , j > I max
    Figure DE102018221133A1_0005
  • Gemäß Gleichung GL3 kann die Objektposition (x, y) im Pixelraum in eine Objektposition (x, y) im Referenzraum der Autofokus-Kamera 21 transformiert werden: ( x , y ) = ( x ¯ , y ¯ ) × g b
    Figure DE102018221133A1_0006
  • Wobei die Gegenstandsweite g der Entfernung z des Objekts entspricht.
  • Zusammen mit der Entfernung z des Objekts die, wie oben beschrieben durch die Gleichung GL2 und/oder Kalibrierung ermittelt wird und der obigen Objektposition (x, y) können somit die Positionskoordinaten P = (x, y, z) des Objekts im Referenzraum der Autofokus-Kamera 21 ermittelt werden, auf welches das Autofokussystem fokussiert.
  • Bei der Transformation der Objektposition (x, y) im Pixelraum in eine Objektposition (x, y) im Referenzraum der Autofokus-Kamera 21 nach Gleichung GL5 können auch Verzeichnungsfehler des Objektivs der Autofokus-Kamera 21 mit berücksichtigt werden. Beispielsweise sind die Verzeichnungseigenschaften eines Objektivs üblicherweise aus dem Objektivprofil vorbekannt. Dieses kann über eine Kalibrierung des Fokussiersystems ermittelt werden, z.B. anhand einer definierten Objektvorlage. Mit einer geeigneten Pixelauswahl auf dem Sensor (bzw. geeigneten Auswahl von Autofokusfeldern) für die Bestimmung einer Schärfeebene lassen sich eventuelle Verzeichnungsfehler (z.B. Außerfokusgeraten der Ränder, tonnenförmige Verzeichnungen usw.) kompensieren. Gegenstände, die sich abseits des paraxialen Gebietes (der „optischen Achse“) des Fokussiersystems befinden, können nach einer solchen Kalibrierung präzise hinsichtlich ihrer Position und Entfernung geschätzt werden.
  • Die Positionskoordinaten P = (x, y, z) des Objekts im Referenzraum der Autofokus-Kamera 21 können beispielsweise wie oben beschrieben vom Autofokussystem selbst oder einem Prozessor in der Autofokus-Kamera 21 ermittelt werden und über das Fahrzeugkommunikationssystem (28 in 1) an die zentrale Steuereinheit (25 in 1), oder zusätzlich oder alternativ an die Steuereinheit für autonomes Fahren (18 in 1) übermittelt werden.
  • Im Ausführungsbeispiel oben beruht die Bestimmung der Objektposition auf einer Kantenkontrastmessung in einer Menge von Autofokusmessfelder. In alternativen Ausführungsbeispielen kann die Kantenkontrastmessung sich jedoch auf beliebige Bildausschnitte beziehen.
  • In den Ausführungsbeispielen werden zur Vereinfachung der Darstellung die Prinzipien der Erfindung anhand des Beispiels von einem Objekt dargestellt. Die Erfindung ist jedoch nicht darauf beschränkt. Die Fokussierung verschiedener Bildausschnitte bzw. Autofokusmessfelder ermöglicht Rückschlüsse auf einzelne Objekte in den jeweiligen Bildausschnitten.
  • Die Autofokusmessfelder können beliebige Koordinaten, beliebige Größen und dergleichen aufweisen. Die Beschaffenheit (Koordinate, Größe, etc.) der Autofokusmessfelder kann durch eine bedarfsgerechte Fokussierungsstrategie gewählt werden. Die Fokussierungsstrategie kann beispielsweise auf Scannen durch die Bildtiefe „Focusbreathing“ oder auf Künstliche-Intelligenz (KI) angelehnt an das menschliche Auge basieren. Insbesondere kann die Bestimmung der Beschaffenheit der Autofokusmessfelder durch künstliche Intelligenz (KI) angewendet werden, um als relevant befundene Bildausschnitte zu identifizieren. KI-Algorithmen können sich beispielsweise an nahen oder bewegten Objekten orientieren, um eine bedarfsgerechte Fokussierungsstrategie zu wählen. Daraus folgt auch die Wahl der Beschaffenheit der Autofokusmessfelder.
  • Ferner kann die Erfassung der Objekte mittels verschiedener Präzisionstechniken zur Genauigkeitssteigerung und/oder Interferometrische Techniken erfolgen. Die Anpassung der Tiefenschärfe kann auch auf Lichtverhältnissen, Entfernung und dergleichen basieren.
  • Abschätzung der Objektform
  • Eine Form des Objekts kann beispielsweise durch Akkumulieren der Positionen P(i,j) (z.B. der Mittelpunkte) von Autofokusmessfeldern Mi,j erfolgen, welche ein Objekt erfasst haben. Das Akkumulieren von Positionen P(i,j) der Autofokusmessfeldern Mi,j kann beispielsweise dadurch erfolgen, dass die Positionen P(i,j) jener Autofokusmessfelder Mi,j akkumuliert werden, die einen größeren Bildschärfewert Ii,j als einen Bildschärfemaximalwert Imax haben. Die unten aufgeführte Gleichung GL6 zeigt beispielweise ein Akkumulieren der Positionen P(i,j) jener Autofokusmessfelds Mi,j, die einen größeren Bildschärfewert Ii,j als den Bildschärfemaximalwert Imax haben: Obj = i , j P ( i , j ) | I i , j > I max
    Figure DE102018221133A1_0007
  • Die durch Akkumulation der Autofokusmessfeldpositionen erzeugte Punktmenge Obj beschreibt als Punktmenge (bzw. „Punktwolke“) die Form des Objekts im Pixelraum. Durch Transformation der Punktmenge Obj in den Referenzraum der Autofokus-Kamera 21 (analog zu GL5) und Einbeziehung des aus der Bildweite ermittelten Objektabstands z kann daraus die Objektform im Referenzraum der Autofokus-Kamera 21 abgeschätzt werden.
  • Mit ermittelter Entfernung z und Form Obj der gemessenen Gegenstände lässt sich ebenfalls die Größe des Objekts schätzen.
  • Die Punktmenge Obj kann beispielsweise wie oben beschrieben vom Autofokussystem selbst oder einem Prozessor in der Autofokus-Kamera 21 ermittelt werden und über das Fahrzeugkommunikationssystem (28 in 1) an die zentrale Steuereinheit (25 in 1), oder zusätzlich oder alternativ an die Steuereinheit für autonomes Fahren (18 in 1) übermittelt werden.
  • Bewegungsschätzung
  • 5 zeigt schematisch eine Positions- bzw. Bewegungsschätzung eines Objekts anhand der mittels des Autofokussystems gewonnenen Positionskoordinaten P(t) = (xt, yt, zt). Ein Objekt bewegt sich entlang einer Trajektorie 51 im Referenzraum der Autofokus-Kamera 21. Zur Zeit t1 befindet sich das Objekt bei den ersten Positionskoordinaten P(t1) = (x1, y1, z1). Zur Zeit t2 befindet sich das Objekt bei den zweiten Positionskoordinaten P(t2) = (x2, y2, z2). Durch solch eine Ermittlung der Positionskoordinaten des Objekts in der Zeitdimension kann eine Bewegung des Objekts, insbesondere die Trajektorie 51 als Weginformation abgeschätzt werden. Ferner kann auch Bewegungsinformation wie die Geschwindigkeit V(t) (oder auch die Beschleunigung) des Objekts wie folgt ermittelt werden: V ( t ) = P ˙ ( t ) = dP ( t ) dt
    Figure DE102018221133A1_0008
  • Die Trajektorie 51 des Objekts im Referenzraum der Autofokus-Kamera 21, d.h. die Trajektorie relativ zum Autofokus-Kamera 21, kann durch zusätzliche Einbeziehung von Erdkoordinaten (Position der Kamera im geodätischen Referenzsystem) und Lageparametern (Ausrichtung der Kamera im geodätischen Referenzsystem) der Kamera bzw. des Fahrzeugs, die mittels der GPS-Einheit und einem Lagesensor (22 in 1) ermittelt werden, in eine absolute Trajektorie überführt werden.
  • Die Objektrajektorie P(t) und/oder die Objektgeschwindigkeit V(t) können beispielsweise wie oben beschrieben vom Autofokussystem selbst oder einem Prozessor in der Autofokus-Kamera 21 ermittelt werden und über das Fahrzeugkommunikationssystem (28 in 1) an die zentrale Steuereinheit (25 in 1), oder zusätzlich oder alternativ an die Steuereinheit für autonomes Fahren (18 in 1) übermittelt werden.
  • Eine Objekttrajektorie kann beispielweise dann erfolgreich bestimmt sein, wenn sich der zu beobachtende Gegenstand in seiner Gestalt nicht ändert und zu keiner Zeit verdeckt wird. Ein sich in seiner Gestalt verändernder Gegenstand kann zudem Rückschlüsse auf eine Größenänderung bewirken. Eine unvollständige Trajektorie könnte ggf. geschätzt (z.B. interpoliert) oder anderweitig plausibel rekonstruiert werden. Auf diese Weise kann vermieden werden, dass Annahmen, die auf einer „starren“ Gegenstandsform basieren, zu inkorrekten Schlüssen führen.
  • Messunsicherheit des Fokussiersystems
  • Die Messunsicherheit eines Fokussiersystems wie der oben beschrieben Autofokus-Kamera in der Entfernungsrichtung lässt sich durch die Tiefenschärfe beschreiben. Die Tiefenschärfe ist entfernungsabhängig und verringert sich mit kleinerer Gegenstandsweite (Entfernung des Objekts). In der Regel wird eine geringere Tiefenschärfe durch größere Blendenöffnungen oder Objektive mit kurzen Brennweiten erreicht. Für eine möglichst genaue Entfernungsmessung ist folglich eine größere Blendenöffnung erwünscht.
  • Die Ermittlung der Lage und der Trajektorie (Bewegungsinformation) des Objekts können durch Faktoren in ihrer Genauigkeit begrenzt werden. Diese sind zum Beispiel die Fokussierzeit, die Tiefenschärfe und die Bewegungsunschärfe. Die Fokussierzeit, ist die Zeit, in der das Fokussiersystem zur Scharfstellung braucht. Die Tiefenschärfe beschreibt die Ausdehnung des scharfen Bereichs im Objektraum eines Fokussiersystem. Je größer die Tiefenschärfe, desto schwieriger ist es, die genaue Gegenstandsebene zu finden. Andererseits kann ein Fokussiersystem mit möglichst geringer Tiefenschärfe bewusst eingesetzt werden. Für eine geringere Bewegungsunschärfe ist es bevorzugt, die Blende des Fokussiersystems möglichst weit aufzumachen. Eine Bewegungsunschärfe ergibt sich insbesondere bei Dunkelheit, wenn die Belichtungszeit aufgrund des geringen Lichteinfalles erhöht werden muss. Sich schnell bewegende Gegenstände können dann weniger genau lokalisiert werden. Erfindungsgemäß können beispielsweise Akkommodation und Adaptionsstrategien angewandt werden, wie sie vom menschlichen Auge bekannt sind.
  • Kombination mit Daten anderer Sensoren
  • Die Verrechnung der Trajektorie kann weiter optimiert werden, wenn Messdaten von weiteren Sensoren, wie Radar, Lidar, Ultraschall (23 in 1) oder kamerabasierten Objekterkennungsmethoden mit in die Bestimmung der Objekttrajektorie mit einbezogen werden. Die Messdaten xi von n verschiedenen Sensoren i können beispielsweise, gemäß der Unsicherheiten σi der Sensoren gewichtet, zu einer präziseren Aussage x kombiniert werden: x ¯ = i = 1 n ( x i σ i 2 ) i = 1 n ( σ i 2 )
    Figure DE102018221133A1_0009
  • Das Unsicherheiten-Gewicht σ x für diese präzisere Aussage x ergibt sich gemäß den bekannten Methoden der Fehlerfortpflanzung zu: σ x ¯ = 1 i = 1 n ( σ i 2 )
    Figure DE102018221133A1_0010
  • Auch könnte über die Kombination mehrerer Fokussiersysteme (z.B. Autofokus-Kameras) Position, Geschwindigkeit, Beschleunigungsänderungen präziser ermittelt werden, weil das zeitraubende Fokussieren auf mehrere Systeme aufgeteilt werden kann. Beispielsweise können zwei oder mehrere Fokussiersysteme mit einem Abstand zueinander verbaut werden. Wenn diese Fokussiersysteme hinsichtlich ihrer Fokussierfluchten (optischen Achse) mehrdimensional schwenkbar (idealerweise am Nodalpunkt aufgehängt) sind, so können anhand des anvisierten Gegenstandspunktes ein Winkel zwischen den Fokussierfluchten gebildet werden, der ebenfalls Rückschlüsse auf die Entfernung des betrachteten Objekts zuließe (Triangulation).
  • Erweiterung auf verschiedene Wellenlängen
  • Die oben beschriebene Autofokus-Kamera ist vorzugsweise eine Optik, die mit Licht im sichtbaren Bereich funktioniert.
  • Obgleich in den Ausführungsbeispielen oben die Prinzipien der Erfindung anhand einer Autofokus-Kamera beschrieben wurden, können diese Prinzipien auch bei beliebigen andere Fokussiersystem in anderen Wellenlängenbereichen des elektromagnetischen Spektrums, wie beispielsweise bei einer Wärmebildkamera oder einer UV-Kamera zur Anwendung kommen. Ein Fokussiersystem könnte beispielsweise mehrere fokussierbare Optiken für unterschiedliche Wellenlängenbereiche umfassen.
  • Objekte geben elektromagnetische Strahlung in charakteristischer Weise ab. Ein für einen Wellenlängenbereich unsichtbares Objekt ist in einem anderen Wellenlängenbereich sichtbar. Jeder Wellenlängenbereich ist unterschiedlich für Gegenstände sensitiv.
  • Prozess zur Abschätzung der Position, Bewegung und Form
  • 6 zeigt ein bezüglich ein mögliches Flussdiagramm eines Prozesses zur Abschätzung der Position, Bewegung und Form eines Objekts mittels einem Fokussiersystem.
  • Bestimmen die Beschaffenheit (Koordinate, Größe, etc.) der Autofokus-Messfelder basierend auf der Fokussierungsstrategie
  • In Schritt S1 wird eine Fokussierungsstrategie bestimmt. Die Fokussierungsstrategie kann durch „Focusbreathing“ oder Künstliche-Intelligenz (KI) bestimmt werden.
  • In Schritt S2 wird die Beschaffenheit (Koordinate, Größe, etc.) der Autofokusmessfelder basierend auf der Fokussierungsstrategie bestimmt, sodass verschiedene (die von den Autofokusmessfeldern definierten) Bildpunkte des Bildsensors bzw. -flächen scharf gestellt werden.
  • In Schritt S3 wird die Bildweite b des Objektivs gemäß einer eigenen Fokussierstrategie variiert, bis das Bild nach eigenen Kriterien scharf gestellt ist.
  • In Schritt S4 wird auf Grundlage der Bildweite b, bei der das Bild scharf gestellt ist, die Entfernung z eines Objekts abgeschätzt.
  • In Schritt S5 wird der Grad der Bildschärfe Ii,j in ein oder mehreren Autofokusmessfeldern Mi,j ermittelt.
  • In Schritt S6 wird auf Grundlage des Grades der Bildschärfe Ii,j in der eine oder mehreren Autofokusmessfeldern Mi,j darauf rückgeschlossen, ob in den jeweiligen Autofokusmessfeldern ein fokussiertes Objekt G (bzw. mehrere Objekte) abgebildet ist, oder nicht.
  • In Schritt S7 wird auf Grundlage der Positionen P(i,j) dieser Autofokusmessfelder Mi,j im Pixelraum die Position (x, y) des Objekts G (bzw. Objekte) im Pixelraum ermittelt.
  • In Schritt S8 wird auf Grundlage der Position (x, y) des Objekts G (bzw. Objekte) im Pixelraum eine Position (x,y) des Objekts im geodätischen Referenzsystem ermittelt.
  • In Schritt S9 wird aus den Positionskoordinaten (x, y, z) des Objekts G (bzw. Objekte) über die Zeit eine Objekttrajektorie P(t) ermittelt.
  • In Schritt S10 werden aus der Objekttrajektorie P(t) Informationen über die Geschwindigkeit (V(t)) oder Beschleunigung des Objekts G (bzw. Objekte) als Bewegungsinformationen ermittelt.
  • In Schritt S11 wird eine Form des Objekts G (bzw. Objekte) durch Akkumulieren der Positionen (P(i,j)) jener Autofokusmessfelder (Mi,j) abgeschätzt, welche ein Objekt erfasst haben.
  • In Schritt S12 wird eine geeignete Fahrreaktion /allgemeine Maßnahme abgeleitet. ***
  • Es sei darauf hingewiesen, dass die Ausführungsbeispiele Verfahren mit einer beispielhaften Reihenfolge der Verfahrensschritte zeigen. Die spezifische Reihenfolge der Verfahrensschritte ist jedoch nur zur Veranschaulichung angegeben und sollte nicht als verbindlich angesehen werden. Zum Beispiel kann die Reihenfolge der Schritte S2 bis S9 im Ausführungsbeispiel der 6 ausgetauscht werden.
  • In dieser Beschreibung beschriebene Funktionalität kann als integrierte Schaltungslogik, z.B. auf einem Chip, implementiert werden. Die beschriebene Funktionalität kann, wenn nicht anders angegeben, auch durch Software implementiert werden. Soweit die oben beschriebenen Ausführungsformen zumindest teilweise mit Hilfe von Softwaregesteuerten Prozessoren implementiert werden, wird auch ein Computerprogramm zur Bereitstellung einer solchen Softwaresteuerung und eines entsprechenden Speichermediums als Aspekte der vorliegenden Offenlegung angesehen.
  • Bezugszeichenliste
  • 1
    autonomes Fahrzeug
    12
    Lenksystem (ECU 1)
    14
    Bremssystem (ECU 2)
    16
    Antriebssystem (ECU 3)
    18
    Steuereinheit für autonomes Fahren (ECU 4)
    20
    Fahrzeugaktuatorik
    21
    Autofokus-Kamera
    22
    GPS/Lagesensor
    23
    Radar, Lidar, Ultraschall
    24
    Fahrzeugsensorik
    25
    Zentrale Steuerungseinheit (ECU 5)
    28
    Fahrzeugkommunikationsnetzwerk
    41
    Bildbereich
    210
    CPU
    220
    RAM
    230
    ROM
    240
    Fahrzeugkommunikationsnetzwerk-Interface
    250
    Kommunikationsnetzwerk
    260
    Speicher (SSD/HDD)
    G
    Objekt (Gegenstand)
    B
    Bildebene
    L
    Linse
    g
    Gegenstandsweite
    f
    Brennweite
    b
    Bildweite
    Mij
    Autofokusmessfelder
    P(t)
    Positionskoordinaten
    51
    Trajektorie

Claims (12)

  1. Vorrichtung (21), die dazu ausgelegt ist, anhand von Schärfeinformationen mittels Fokussierung von Bilddaten Positionsinformationen (P(t); x(t), y(t), z(t); 51), Bewegungsinformationen (V(t)), und/oder Forminformationen (Obj) bezüglich einem Objekt (G) abzuschätzen.
  2. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, mittels Fokussierung eine Entfernungsmessung bezüglich dem Objekt (G) durchzuführen.
  3. Vorrichtung (21) nach Anspruch 2, die dazu ausgelegt ist, die Bildweite (b) so lange zu variieren, bis ein Maximum der Bildschärfe erreicht ist, und auf Grundlage dieser Bildweite (b) die Entfernung (z) bezüglich dem Objekt (G) zu ermitteln.
  4. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, eine Kantenkontrastmessung in vorbestimmten Bildausschnitten durchzuführen, um eine Schärfeebene zu ermitteln.
  5. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, aus dem Grad der Bildschärfe (Ii,j) in ein oder mehreren Autofokusmessfeldern (Mi,j) darauf rückzuschließen, ob in den jeweiligen Autofokusmessfeldern ein fokussiertes Objekt (G) abgebildet ist, oder nicht und auf Grundlage der Positionen (P(i,j)) dieser Autofokusmessfelder (Mi,j) im Pixelraum die Position ((x, y), (x, y)) des Objekts (G) zu ermitteln.
  6. Vorrichtung (21) nach Anspruch 5, die dazu ausgelegt ist, auf Grundlage der Positionen (P(i,j)) der Autofokusmessfelder (Mi,j) im Pixelraum die relative Position ((x, y)) des Objekts (G) im Referenzraum der Vorrichtung (21) zu ermitteln.
  7. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, eine Form des Objekts durch Akkumulieren der Positionen (P(i,j)) jener Autofokusmessfelder (Mi,j), welche ein Objekt erfasst haben, abzuschätzen.
  8. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, durch eine Ermittlung der Positionskoordinaten des Objekts eine Weginformation bezüglich dem Objekt, insbesondere eine Objekttrajektorie (51) als Positionsinformationen zu ermitteln.
  9. Vorrichtung (21) nach Anspruch 1, wobei die Bewegungsinformationen Informationen über die Geschwindigkeit (V(t)) oder Beschleunigung des Objekts (G) umfasst.
  10. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, durch Einbeziehung von Positionsinformationen und Lageinformationen in einem geodätischen Referenzsystem Positionsinformationen (P(t); x(t), y(t), z(t); 51) des Objekts (G) im geodätischen Referenzsystem zu ermitteln.
  11. Vorrichtung (21) nach Anspruch 1, die dazu ausgelegt ist, Messdaten von weiteren Sensoren (23) oder kamerabasierten Objekterkennungsmethoden mit in die Bestimmung der Positionsinformationen (P(t); x(t), y(t), z(t); 51), der Bewegungsinformationen (V(t)), und/oder der Forminformationen (Obj) mit einzubeziehen.
  12. Verfahren, bei dem anhand von Schärfeinformationenmittels Fokussierung von Bilddaten Positionsinformationen (P(t); x(t), y(t), z(t); 51), Bewegungsinformationen (V(t)), und/oder Forminformationen (Obj) eines Objekts (G) abgeschätzt werden.
DE102018221133.7A 2018-12-06 2018-12-06 Positions- und Bewegungserkennung mittels Autofokussystem Ceased DE102018221133A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018221133.7A DE102018221133A1 (de) 2018-12-06 2018-12-06 Positions- und Bewegungserkennung mittels Autofokussystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018221133.7A DE102018221133A1 (de) 2018-12-06 2018-12-06 Positions- und Bewegungserkennung mittels Autofokussystem

Publications (1)

Publication Number Publication Date
DE102018221133A1 true DE102018221133A1 (de) 2020-06-10

Family

ID=70776384

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018221133.7A Ceased DE102018221133A1 (de) 2018-12-06 2018-12-06 Positions- und Bewegungserkennung mittels Autofokussystem

Country Status (1)

Country Link
DE (1) DE102018221133A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202454A1 (de) 2021-03-15 2022-09-15 Zf Friedrichshafen Ag Umgebungsmodellierung basierend auf Kameradaten
DE102022117341A1 (de) 2022-07-12 2024-01-18 Valeo Schalter Und Sensoren Gmbh Verfahren zur Bestimmung eines Abstandes zu einem Objekt in einem Sichtfeld einer Kamera, Computerprogramm, Steuereinheit für eine Fahrzeugkamera, Kamera- und Fahrerassistenzsystem
DE102022129697A1 (de) 2022-11-10 2024-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Distanz eines Objektes in einer Fahrzeugumgebung zu einem Fahrzeug auf Basis von Bildern mit unterschiedlichen Schärfen

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080189036A1 (en) * 2007-02-06 2008-08-07 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
DE102013222304A1 (de) * 2013-11-04 2015-05-07 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug verbauten Kamera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080189036A1 (en) * 2007-02-06 2008-08-07 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
DE102013222304A1 (de) * 2013-11-04 2015-05-07 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung von Objektentfernungen mit einer in einem Kraftfahrzeug verbauten Kamera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202454A1 (de) 2021-03-15 2022-09-15 Zf Friedrichshafen Ag Umgebungsmodellierung basierend auf Kameradaten
DE102022117341A1 (de) 2022-07-12 2024-01-18 Valeo Schalter Und Sensoren Gmbh Verfahren zur Bestimmung eines Abstandes zu einem Objekt in einem Sichtfeld einer Kamera, Computerprogramm, Steuereinheit für eine Fahrzeugkamera, Kamera- und Fahrerassistenzsystem
DE102022129697A1 (de) 2022-11-10 2024-05-16 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer Distanz eines Objektes in einer Fahrzeugumgebung zu einem Fahrzeug auf Basis von Bildern mit unterschiedlichen Schärfen

Similar Documents

Publication Publication Date Title
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102016223422B4 (de) Verfahren zur automatischen Ermittlung extrinsischer Parameter einer Kamera eines Fahrzeugs
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE102019101938A1 (de) Erstellung kognitiver Karten für Fahrzeuge
DE102019121140A1 (de) Sensorfusion
DE102019110430A1 (de) Nebenbedingungen der simultanen positionsbestimmung und kartenerstellung in generative adversarial networks zur monokularen tiefenschätzung
DE102017200768A1 (de) Fahrsteuervorrichtung
DE102019119162A1 (de) Posenschätzung
DE102019133703A1 (de) Verfahren und systeme zur herstellung und lokalisierung für ein fahrzeug
DE102018221133A1 (de) Positions- und Bewegungserkennung mittels Autofokussystem
DE102021100101A1 (de) Fahrzeugsensorkalibrierung
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102017203276A1 (de) Verfahren und Vorrichtung zur Ermittlung einer Trajektorie in Off-road-Szenarien
DE102018106383A1 (de) Fahrzeugspurrichtungserkennung
DE102020116964A1 (de) Visuelle odometrie für fahrzeug
DE112019001542T5 (de) Positionsschätzvorrichtung
DE102020104427A1 (de) Fahrzeugpfadverarbeitung
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102019207783A1 (de) Vorrichtung und verfahren zur steuerung des autonomen fahrens eines fahrzeuges
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102020107339A1 (de) Objektverfolgung für fahrzeuge
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final