DE102020100278A1 - Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren - Google Patents

Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren Download PDF

Info

Publication number
DE102020100278A1
DE102020100278A1 DE102020100278.5A DE102020100278A DE102020100278A1 DE 102020100278 A1 DE102020100278 A1 DE 102020100278A1 DE 102020100278 A DE102020100278 A DE 102020100278A DE 102020100278 A1 DE102020100278 A1 DE 102020100278A1
Authority
DE
Germany
Prior art keywords
sensor unit
optical sensor
measurement data
optical
optical element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020100278.5A
Other languages
English (en)
Inventor
Damien SCHROEDER
Korbinian Weikl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102020100278.5A priority Critical patent/DE102020100278A1/de
Publication of DE102020100278A1 publication Critical patent/DE102020100278A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/958Inspecting transparent materials or objects, e.g. windscreens
    • G01N2021/9586Windscreens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Die vorliegende Offenbarung betrifft ein Testverfahren für eine optische Sensoreinheit eines Systems zum automatisierten Fahren. Das Testverfahren umfasst ein Erfassen von ersten Messdaten eines Referenzobjekts mit einer optischen Sensoreinheit, wobei ein optisches Element zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist; ein Erfassen von zweiten Messdaten des Referenzobjekts mit der optischen Sensoreinheit, wobei das optische Element nicht zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist; und ein Quantifizieren eines Unterschieds zwischen den ersten Messdaten und den zweiten Messdaten, um einen Einfluss des optischen Elements auf eine Bildqualität der optischen Sensoreinheit zu ermitteln.

Description

  • Die vorliegende Offenbarung betrifft ein Testverfahren und ein Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren. Die vorliegende Offenbarung betrifft insbesondere die Berücksichtigung einer Güte einer Windschutzscheibe in Bezug auf ein System.
  • Stand der Technik
  • Systeme zum automatisierten Fahren gewinnen stetig an Bedeutung. Das automatisierte Fahren kann mit verschiedenen Automatisierungsgraden erfolgen. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012). Beispielsweise kann sich ein Fahrzeug mit einer Funktion auf Level 4 ohne Beteiligung eines Fahrers im Stadtbetrieb bewegen.
  • Das System zum automatisierten Fahren verwendet Sensoren, die die Umgebung auf visueller Basis wahrnehmen, sowohl im für den Menschen sichtbaren als auch unsichtbaren Bereich. Die Sensoren können zum Beispiel eine Kamera, ein Radar und/oder ein LiDAR sein. Diese sind neben hochgenauen Karten und Signalen des aktuellen Fahrzeugzustands, wie z.B. Geschwindigkeit, Lage etc., die hauptsächlichen Signalquellen für Systeme zum automatisierten Fahren.
  • Die Kamera kann zum Beispiel hinter der Windschutzscheibe des Fahrzeugs angeordnet sein. Damit liegt die Windschutzscheibe im optischen Pfad der Kamera und beeinflusst die Bildqualität dieser Kamera. Durch den Herstellungsprozess der Windschutzscheibe variieren die optischen Eigenschaften der Windschutzscheiben. In der Serienfertigung von Fahrzeugen werden zwar Anforderungen an die optische Güte der Windschutzscheibe gestellt, allerdings variiert die Güte innerhalb eines den Anforderungen entsprechenden Toleranzbereichs oder sogar darüber hinaus. Dies führt zu einer Verschlechterung der Bildqualität durch die Windschutzscheibe und eine Beeinflussung des Systems. Zudem führt die Anordnung der Windschutzscheibe im optischen Pfad der Kamera generell zu einer Verschlechterung der Bildqualität.
  • Offenbarung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Offenbarung, ein Testverfahren und ein Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren anzugeben, die ein präzises Funktionieren des Systems auch bei einer variierenden Güte eines optischen Elements, wie zum Beispiel einer Windschutzscheibe, sicherstellen können.
  • Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
  • Gemäß einem unabhängigen Aspekt der vorliegenden Offenbarung ist ein Testverfahren für eine optische Sensoreinheit eines Systems zum automatisierten Fahren angegeben. Das Testverfahren umfasst ein Erfassen von ersten Messdaten eines Referenzobjekts mit einer optischen Sensoreinheit, wobei ein optisches Element zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist; ein Erfassen von zweiten Messdaten des Referenzobjekts mit der optischen Sensoreinheit, wobei das optische Element nicht zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist; und ein Quantifizieren eines Unterschieds zwischen den erfassten ersten Messdaten und den erfassten zweiten Messdaten, um einen Einfluss des optischen Elements auf eine Bildqualität der optischen Sensoreinheit zu ermitteln.
  • Erfindungsgemäß erfolgt eine Messung von optischen Eigenschaften eines Bereichs eines optischen Elements, wie einer Windschutzscheibe, zur Verbesserung der Performance der optischen Sensoreinheit, die zum Beispiel hinter der Windschutzscheibe angebracht ist. Zum Beispiel kann im Werk eine Kamera mit Hilfe eines Targets zweimal kalibriert werden: einmal ohne Windschutzscheibe und einmal nach Montage hinter der Windschutzscheibe. Aus der Differenz der aufgezeichneten Kalibrierungsdaten können die optischen Eigenschaften der Windschutzscheibe berechnet werden. Diese Werte dienen zum Beispiel als Grundlage für die Signalverarbeitung im System zum automatisierten Fahren, die den Einfluss der Windschutzscheibe auf die Bilder korrigiert. Damit kann ein präzises Funktionieren des Systems auch bei einer variierenden Güte der Windschutzscheibe sichergestellt werden.
  • Vorzugsweise werden zuerst die ersten Messdaten und dann die zweiten Messdaten erfasst. Anders gesagt erfolgt die Messung zuerst mit dem optischen Element und dann ohne das optische Element. Alternativ werden zuerst die zweiten Messdaten und dann die ersten Messdaten erfasst. Anders gesagt erfolgt die Messung zuerst ohne das optische Element und dann mit dem optischen Element.
  • Vorzugsweise werden die ersten Messdaten als Messreihe mit einer Vielzahl von Messungen erfasst. In einigen Ausführungsformen kann die Vielzahl von Messungen unter unterschiedlichen Bedingungen durchgeführt werden. Die Bedingungen können aus der Gruppe ausgewählt sein, die eine Temperatur, Lichtbedingungen, Vibrationen verschiedener Frequenzen und Amplituden und eine Alterung der Scheibe (z.B. wiederholte Kalibrierung beim Service) umfasst, oder die daraus besteht.
  • Das optische Element kann eine Windschutzscheibe bzw. Frontscheibe des Fahrzeugs sein. Beispielsweise ist die optische Sensoreinheit hinter dem optischen Element in einem Innenraum des Fahrzeugs montiert, so dass das optische Element in einem Erfassungsbereich (Field of View) der optischen Sensoreinheit liegt bzw. angeordnet ist.
  • Die vorliegende Offenbarung ist jedoch nicht hierauf begrenzt und das optische Element kann ein anderes optische Element als die Windschutzscheibe sein, wie zum Beispiel eine Heckscheibe, eine Seitenscheibe, ein Scheinwerferglas, etc. Das optische Element ist insbesondere kein notwendiges Bauteil der Sensoreinheit.
  • Vorzugsweise ist die optische Sensoreinheit eine Kamera des Systems. Für das Testverfahren kann alternativ eine Testkamera oder eine sonstige Sensorik, die zur Lichterfassung eingerichtet ist, verwendet werden. Durch eine bekannte Korrelation zwischen der optischen Sensoreinheit des Systems und der Testkamera/sonstigen Sensorik kann die Kalibrierung der optischen Sensoreinheit des Systems erfolgen, auch wenn das Testverfahren mit der Testkamera/sonstigen Sensorik als die optische Sensoreinheit durchgeführt wird.
  • In weiteren Ausführungsformen kann die optische Sensoreinheit ein Lidar oder Lidar-System sein.
  • Vorzugsweise ist das Referenzobjekt bzw. Target aus der Gruppe ausgewählt, die ein Testbild, ein natürliches Bild und eine Lichtquelle umfasst, oder die daraus besteht. Unter Verwendung des Referenzobjekts und eines Messgeräts wird die geometrische Übertragungsfunktion eines Bereichs des optischen Elements ermittelt. Als Referenzobjekt kann ein geeignetes Testbild, ein natürliches Bild oder eine Lichtquelle verwendet werden. Als Messgerät dient die optische Sensoreinheit, die eine Kamera oder eine Testkamera sein kann, oder eine sonstige Sensorik zur Lichterfassung.
  • Der Begriff „Quantifizieren“, wie er im Rahmen des vorliegenden Dokuments verwendet wird, bezieht sich auf geeignete Maßnahmen und Mittel zur Bestimmung des Unterschieds zwischen den ersten Messdaten und den zweiten Messdaten. Die Maßnahmen und Mittel sind beispielsweise derart ausgewählt, dass eine Anpassung der Erfassungssignale an die Güte des optischen Elements erfolgen kann.
  • Vorzugsweise erfolgt das Quantifizieren des Unterschieds zwischen den ersten Messdaten und den zweiten Messdaten mittels wenigstens eines Aspekts, der aus der Gruppe ausgewählt ist, die das Folgende umfasst:
    • - von der optischen Sensoreinheit erzeugte Bilder; und/oder
    • - statistische Eigenschaften der erzeugten Bilder; und/oder
    • - wenigstens eine optische Größe, insbesondere eine Schärfe und/oder Verzerrung; und/oder
    • - eine Metrik, insbesondere eine Metrik einer für ein menschliches Auge erzielten Bildqualität; und/oder
    • - eine Leistungsmetrik von nachgeschalteten Systemen zur optischen Bildverarbeitung.
  • Die Performance der optischen Sensoreinheit wird also unter Zuhilfenahme der erzeugten Bilder und/oder deren statistischer Eigenschaften, mittels optischer Größen wie Verzerrung und Schärfe, Metriken der für das menschliche Auge erzielten Bildqualität oder Performance-Metriken von nachgeschalteten Systemen zur automatisierten Bildverarbeitung quantifiziert, so dass ein Einfluss der Güte des optischen Elements auf die Bildqualität bestimmt und bei der Auslegung oder Ansteuerung des Systems berücksichtigt werden kann.
  • Vorzugsweise umfasst das Verfahren weiter ein Anpassen der von der optischen Sensoreinheit des Systems bereitgestellten Erfassungsdaten basierend auf der Quantifizierung. Dies erfolgt insbesondere während eines Betriebs des Fahrzeugs. Das Anpassen der von der optischen Sensoreinheit bereitgestellten Erfassungsdaten umfasst zum Beispiel eine Signalverarbeitung und/oder eine Korrektur mittels einer adaptiven Optik und/oder ein Bestimmen einer ausreichenden Güte bzw. Qualität für das optische Element. In letzterem Fall kann die Güte des optischen Elements auf das ausreichende Niveau verbessert werden, oder es kann ein Austausch gegen ein anderes optisches Element ausreichender Güte erfolgen.
  • Dementsprechend kann die Performance der optischen Sensoreinheit zum Beispiel durch Signalverarbeitung und/oder Korrektur mittels einer adaptiven Optik verbessert werden. Alternativ kann ein optisches Element mit einer anderen bzw. angepassten Güte verwendet werden, um die Performance der optischen Sensoreinheit zu verbessern.
  • Gemäß einem weiteren unabhängigen Aspekt ist ein Software (SW) Programm angegeben. Das SW Programm kann eingerichtet werden, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Testverfahren auszuführen.
  • Gemäß einem weiteren unabhängigen Aspekt ist ein Speichermedium angegeben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Testverfahren auszuführen.
  • Gemäß einem weiteren unabhängigen Aspekt der vorliegenden Offenbarung ist ein Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren angegeben. Das Testsystem umfasst eine optische Sensoreinheit und wenigstens eine Prozessoreinheit. Die wenigstens eine Prozessoreinheit ist eingerichtet, um:
    • erste Messdaten eines Referenzobjekts mit der optischen Sensoreinheit zu erfassen, wenn ein optisches Element zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist;
    • zweiten Messdaten des Referenzobjekts mit der optischen Sensoreinheit zu erfassen, wenn das optische Element nicht zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist; und
    • einen Unterschied zwischen den ersten Messdaten und den zweiten Messdaten zu quantifizieren, um einen Einfluss des optischen Elements auf eine Bildqualität der optischen Sensoreinheit zu ermitteln.
  • Das Testsystem ist insbesondere eingerichtet, das in diesem Dokument beschriebene Testverfahren auszuführen.
  • Das System, das die optische Sensoreinheit verwendet, ist zum automatisierten Fahren eingerichtet. Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein Fahren höherer Automatisierungsgrade mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012).
  • Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich.
  • Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
  • Figurenliste
  • Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
    • 1 schematisch ein Fahrzeug mit einem System zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung,
    • 2 schematisch eine Testanordnung gemäß Ausführungsformen der vorliegenden Offenbarung, und
    • 3 ein Flussdiagram eines Testverfahrens gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Ausführungsformen der Offenbarung
  • Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.
  • 1 zeigt schematisch ein Fahrzeug 10 mit einem System 100 zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Das Fahrzeug 10 umfasst das System 100 zum automatisierten Fahren. Beim automatisierten Fahren erfolgt die Längs- und/oder Querführung des Fahrzeugs 10 automatisch. Das System 100 übernimmt also die Fahrzeugführung. Hierzu steuert das System 100 den Antrieb 20, das Getriebe 22, die (hydraulische) Betriebsbremse 24 und die Lenkung 26 über nicht dargestellte Zwischeneinheiten. Bei einem Elektrofahrzeug kann das Getriebe 22 nicht vorhanden sein.
  • Zur Planung und Durchführung des automatisierten Fahrens werden Umfeldinformationen einer Umfeldsensorik, die das Fahrzeugumfeld beobachtet, vom Fahrerassistenzsystem 100 entgegengenommen. Insbesondere kann das Fahrzeug wenigstens einen Umgebungssensor 12 umfassen, der zur Aufnahme von Umgebungsdaten, die das Fahrzeugumfeld angeben, eingerichtet ist. Der wenigstens eine Umgebungssensor 12 kann beispielsweise ein LiDAR-System, ein oder mehrere Radar-Systeme und/oder eine oder mehrere Kameras umfassen.
  • 2 zeigt schematisch ein Testsystem 200 für eine optische Sensoreinheit eines Systems zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung.
  • Das Testsystem 200 umfasst eine optische Sensoreinheit 110 und ein Referenzobjekt 120. In 2 (a) ist ein optisches Element A, wie zum Beispiel eine Windschutzscheibe, zwischen der optischen Sensoreinheit 110 und dem Referenzobjekt 120 angeordnet. In 2 (b) ist das optisches Element A entfernt.
  • 3 zeigt schematisch ein Flussdiagramm eines Testverfahrens 300 für eine optische Sensoreinheit eines Systems zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung. Das Testverfahren 300 kann durch eine entsprechende Software implementiert werden, die durch einen oder mehrere Prozessoren (z.B. eine CPU) ausführbar ist.
  • Das Testverfahren 300 umfasst im Block 310 ein Erfassen von ersten Messdaten eines Referenzobjekts mit einer optischen Sensoreinheit, wobei ein optisches Element zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist (vgl. 2 (a)); im Block 320 ein Erfassen von zweiten Messdaten des Referenzobjekts mit der optischen Sensoreinheit, wobei das optische Element nicht zwischen dem Referenzobjekt und der optischen Sensoreinheit angeordnet ist (vgl. 2 (b)); und im Block 330 ein Quantifizieren eines Unterschieds zwischen den erfassten ersten Messdaten und den erfassten zweiten Messdaten, um einen Einfluss des optischen Elements auf eine Bildqualität der optischen Sensoreinheit zu ermitteln.
  • Erfindungsgemäß erfolgt eine Messung von optischen Eigenschaften eines Bereichs eines optischen Elements, wie einer Windschutzscheibe, zur Verbesserung der Performance der optischen Sensoreinheit, die zum Beispiel hinter der Windschutzscheibe angebracht ist. Zum Beispiel kann im Werk eine Kamera mit Hilfe eines Targets zweimal kalibriert werden: einmal ohne Windschutzscheibe und einmal nach Montage hinter der Windschutzscheibe. Aus der Differenz der aufgezeichneten Kalibrierungsdaten können die optischen Eigenschaften der Windschutzscheibe berechnet werden. Diese Werte dienen zum Beispiel als Grundlage für die Signalverarbeitung im System zum automatisierten Fahren, die den Einfluss der Windschutzscheibe auf die Bilder korrigiert. Damit kann ein präzises Funktionieren des Systems auch bei einer variierenden Güte der Windschutzscheibe sichergestellt werden.
  • In einigen Ausführungsformen werden zuerst die ersten Messdaten und dann die zweiten Messdaten erfasst. Anders gesagt erfolgt die Messung zuerst mit dem optischen Element und dann ohne das optische Element. Alternativ werden zuerst die zweiten Messdaten und dann die ersten Messdaten erfasst. Anders gesagt erfolgt die Messung zuerst ohne das optische Element und dann mit dem optischen Element.
  • Typischerweise ist das optische Element eine Windschutzscheibe bzw. Frontscheibe des Fahrzeugs. Beispielsweise ist die optische Sensoreinheit hinter dem optischen Element in einem Innenraum des Fahrzeugs montiert, so dass das optische Element in einem Erfassungsbereich (Field of View) der optischen Sensoreinheit liegt bzw. angeordnet ist. Die vorliegende Offenbarung ist jedoch nicht hierauf begrenzt und das optische Element kann ein anderes optisches Element als die Windschutzscheibe sein, wie zum Beispiel eine Heckscheibe, eine Seitenscheibe, ein Scheinwerferglas, etc.
  • In einigen Ausführungsformen ist die optische Sensoreinheit eine Kamera des Systems. Für das Testverfahren kann alternativ eine Testkamera oder eine sonstige Sensorik, die zur Lichterfassung eingerichtet ist, verwendet werden. Durch eine bekannte Korrelation zwischen der optischen Sensoreinheit des Systems und der Testkamera/sonstigen Sensorik kann die Kalibrierung der optischen Sensoreinheit des Systems erfolgen, auch wenn das Testverfahren mit der Testkamera/sonstigen Sensorik als die optische Sensoreinheit durchgeführt wird.
  • Das Referenzobjekt bzw. Target kann aus der Gruppe ausgewählt sein, die ein Testbild, ein natürliches Bild und eine Lichtquelle umfasst, oder die daraus besteht. Unter Verwendung des Referenzobjekts und eines Messgeräts wird die geometrische Übertragungsfunktion eines Bereichs des optischen Elements ermittelt. Als Referenzobjekt kann ein geeignetes Testbild, ein natürliches Bild oder eine Lichtquelle verwendet werden. Als Messgerät dient die optische Sensoreinheit, die eine Kamera oder eine Testkamera sein kann, oder eine sonstige Sensorik zur Lichterfassung.
  • In einigen Ausführungsformen erfolgt das Quantifizieren des Unterschieds zwischen den ersten Messdaten und den zweiten Messdaten mittels wenigstens eines Aspekts, der aus der Gruppe ausgewählt ist, die das Folgende umfasst:
    • - von der optischen Sensoreinheit erzeugte Bilder; und/oder
    • - statistische Eigenschaften der erzeugten Bilder; und/oder
    • - wenigstens eine optische Größe, insbesondere eine Schärfe und/oder Verzerrung; und/oder
    • - eine Metrik, insbesondere eine Metrik einer für ein menschliches Auge erzielten Bildqualität (z.B. subjektive und/oder objektive Quantifizierung der für das menschliche Auge erzielten Güte, z.B. Schärfe, Farbtreue, Rauschabstand etc.); und/oder
    • - eine Leistungsmetrik von nachgeschalteten Systemen zur optischen Bildverarbeitung (z.B. Metriken zum Quantifizieren der Genauigkeit, der Verlässlichkeit und/oder des Verarbeitungsaufwands oder des Energieverbrauchs der Datenverarbeitung im System für das maschinelle Sehen).
  • Die Performance der optischen Sensoreinheit wird also unter Zuhilfenahme der erzeugten Bilder und/oder deren statistischer Eigenschaften, mittels optischer Größen wie Verzerrung und Schärfe, Metriken der für das menschliche Auge erzielten Bildqualität oder Performance-Metriken von nachgeschalteten Systemen zur automatisierten Bildverarbeitung quantifiziert, so dass ein Einfluss der Güte des optischen Elements auf die Bildqualität bestimmt und bei der Auslegung oder Ansteuerung des Systems berücksichtigt werden kann.
  • In einigen Ausführungsformen umfasst das Verfahren weiter ein Anpassen der von der optischen Sensoreinheit des Systems bereitgestellten Erfassungsdaten basierend auf der Quantifizierung. Dies erfolgt insbesondere während eines Betriebs des Fahrzeugs. Das Anpassen der von der optischen Sensoreinheit bereitgestellten Erfassungsdaten umfasst zum Beispiel eine Signalverarbeitung und/oder eine Korrektur mittels einer adaptiven Optik und/oder ein Bestimmen einer ausreichenden Güte bzw. Qualität für das optische Element.
  • Dementsprechend kann die Performance der optischen Sensoreinheit zum Beispiel durch Signalverarbeitung und/oder Korrektur mittels einer adaptiven Optik verbessert werden. Alternativ kann ein optisches Element mit einer anderen bzw. angepassten Güte verwendet werden, um die Performance der optischen Sensoreinheit zu verbessern.
  • Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.

Claims (13)

  1. Testverfahren (300) für eine optische Sensoreinheit eines Systems zum automatisierten Fahren, umfassend: Erfassen (310) von ersten Messdaten eines Referenzobjekts (120) mit einer optischen Sensoreinheit (110), wobei ein optisches Element (A) zwischen dem Referenzobjekt (120) und der optischen Sensoreinheit (110) angeordnet ist; Erfassen (320) von zweiten Messdaten des Referenzobjekts (120) mit der optischen Sensoreinheit (110), wobei das optische Element (A) nicht zwischen dem Referenzobjekt (120) und der optischen Sensoreinheit (110) angeordnet ist; und Quantifizieren (330) eines Unterschieds zwischen den ersten Messdaten und den zweiten Messdaten, um einen Einfluss des optischen Elements (A) auf eine Bildqualität der optischen Sensoreinheit (110) zu ermitteln.
  2. Das Testverfahren (300) nach Anspruch 1, wobei zuerst die ersten Messdaten und dann die zweiten Messdaten erfasst werden, oder wobei zuerst die zweiten Messdaten und dann die ersten Messdaten erfasst werden.
  3. Das Testverfahren (300) nach Anspruch 1 oder 2, wobei das optische Element (A) eine Windschutzscheibe eines Fahrzeugs ist.
  4. Das Testverfahren (300) nach einem der Ansprüche 1 bis 3, wobei die optische Sensoreinheit (110) hinter dem optischen Element (A) in einem Innenraum des Fahrzeugs montiert ist.
  5. Das Testverfahren (300) nach einem der Ansprüche 1 bis 4, wobei die optische Sensoreinheit (110) eine Kamera des Systems ist.
  6. Das Testverfahren (300) nach einem der Ansprüche 1 bis 5, wobei das Referenzobjekt (120) aus der Gruppe ausgewählt ist, die aus einem Testbild, einem natürlichen Bild und einer Lichtquelle besteht.
  7. Das Testverfahren (300) nach einem der Ansprüche 1 bis 6, wobei das Quantifizieren des Unterschieds zwischen den ersten Messdaten und den zweiten Messdaten mittels wenigstens eines Aspekts erfolgt, der aus der Gruppe ausgewählt ist, die aus dem Folgenden besteht: - von der optischen Sensoreinheit erzeugten Bildern; und/oder - statistischen Eigenschaften der erzeugten Bilder; und/oder - wenigstens einer optischen Größe, insbesondere einer Schärfe und/oder Verzerrung; und/oder - einer Metrik, insbesondere einer Metrik einer für ein menschliches Auge erzielten Bildqualität; und/oder - einer Leistungsmetrik von nachgeschalteten Systemen zur optischen Bildverarbeitung.
  8. Das Testverfahren (300) nach einem der Ansprüche 1 bis 7, weiter umfassend: Anpassen der von der optischen Sensoreinheit bereitgestellten Erfassungsdaten basierend auf der Quantifizierung.
  9. Das Testverfahren (300) nach Anspruch 8, wobei das Anpassen der von der optischen Sensoreinheit bereitgestellten Erfassungsdaten umfasst: - eine Signalverarbeitung; und/oder - eine Korrektur mittels einer adaptiven Optik; und/oder - ein Bestimmen einer ausreichenden Qualität für das optische Element.
  10. Das Testverfahren (300) nach einem der Ansprüche 1 bis 9, wobei die ersten Messdaten als Messreihe mit einer Vielzahl von Messungen erfasst werden.
  11. Das Testverfahren (300) nach Anspruch 10, wobei die Vielzahl von Messungen unter unterschiedlichen Bedingungen durchgeführt werden.
  12. Das Testverfahren (300) nach Anspruch 11, wobei die Bedingungen aus der Gruppe ausgewählt sind, die aus einer Temperatur, Lichtbedingungen, Vibrationen verschiedener Frequenzen und Amplituden und einer Alterung des optischen Elements besteht.
  13. Testsystem (200) für eine optische Sensoreinheit eines Systems zum automatisierten Fahren, umfassend: eine optische Sensoreinheit (110); und wenigstens eine Prozessoreinheit, die eingerichtet ist, um: erste Messdaten eines Referenzobjekts (120) mit der optischen Sensoreinheit (110) zu erfassen, wenn ein optisches Element (A) zwischen dem Referenzobjekt (120) und der optischen Sensoreinheit (110) angeordnet ist; zweite Messdaten des Referenzobjekts (120) mit der optischen Sensoreinheit (110) zu erfassen, wenn das optische Element (A) nicht zwischen dem Referenzobjekt (120) und der optischen Sensoreinheit (110) angeordnet ist; und einen Unterschied zwischen den ersten Messdaten und den zweiten Messdaten zu quantifizieren, um einen Einfluss des optischen Elements (A) auf eine Bildqualität der optischen Sensoreinheit (110) zu ermitteln.
DE102020100278.5A 2020-01-09 2020-01-09 Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren Pending DE102020100278A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020100278.5A DE102020100278A1 (de) 2020-01-09 2020-01-09 Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020100278.5A DE102020100278A1 (de) 2020-01-09 2020-01-09 Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren

Publications (1)

Publication Number Publication Date
DE102020100278A1 true DE102020100278A1 (de) 2021-07-15

Family

ID=76542674

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020100278.5A Pending DE102020100278A1 (de) 2020-01-09 2020-01-09 Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren

Country Status (1)

Country Link
DE (1) DE102020100278A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007040232A1 (de) * 2007-08-25 2009-02-26 Adc Automotive Distance Control Systems Gmbh Verfahren zur Feststellung von Mängeln in einer Windschutzscheibe
US20170070725A1 (en) * 2014-03-07 2017-03-09 Jun Kishiwada Calibration method, calibration device, and computer program product

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007040232A1 (de) * 2007-08-25 2009-02-26 Adc Automotive Distance Control Systems Gmbh Verfahren zur Feststellung von Mängeln in einer Windschutzscheibe
US20170070725A1 (en) * 2014-03-07 2017-03-09 Jun Kishiwada Calibration method, calibration device, and computer program product

Similar Documents

Publication Publication Date Title
EP1303768B1 (de) Verfahren zur sichtweitenbestimmung
DE102009008053B4 (de) Testprozedur zum Bestimmen des Zahnstangenratterns
DE10201522A1 (de) Verfahren und Vorrichtung zur Erkennung von Sichtbehinderungen bei Bildsensorsystemen
WO2019166065A1 (de) Anhängerwinkelbestimmungssystem für ein fahrzeug
DE102011075702A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Projektion einer Projektionseinrichtung eines Fahrzeugs
DE102012001858A1 (de) Verfahren zur Kalibrierung mehrerer Bilderfassungseinheiten einer Bilderfassungsvorrichtung
DE102015008887A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Headup-Displays in einem Fahrzeug
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102019200612A1 (de) Vorrichtung und Verfahren zum Kalibrieren eines Multiple-Input-Multiple-Output-Radarsensors
WO2022128013A1 (de) Korrektur von bildern einer kamera bei regen, lichteinfall und verschmutzung
DE102008026876A1 (de) Stereokamerasystem und Verfahren zum Ermitteln mindestens eines Kalibrierfehlers eines Stereokamerasystems
EP3729213A1 (de) Verhaltensmodell eines umgebungssensors
DE102008037266A1 (de) Reinigungssystem für Fahrzeugscheinwerfer
WO2012017334A2 (de) Kamerasystem für fahrzeuganwendungen
DE102019115072B4 (de) Verfahren zum Bestimmen von Klappergeräusch eines Fahrzeuglenksystems
DE102020100278A1 (de) Testverfahren und Testsystem für eine optische Sensoreinheit eines Systems zum automatisierten Fahren
DE102017003629A1 (de) Vorrichtung und Verfahren zur Kalibrierung optischer Sensoren eines Fahrzeugs
DE102014113070A1 (de) Justiervorrichtung und Verfahren zum Ausrichten eines Bauteils an einem Fahrzeug
DE102016204654A1 (de) Vorrichtung und Verfahren zur Eigenbewegungsschätzung für ein Kraftfahrzeug
DE102010050279B4 (de) Verfahren zum Gewinnen von Daten und zum Ausrichten eines Umfeldsensors eines Kraftwagens
DE102019208083A1 (de) Lenkstangen-korrosionsdetektion unter verwendung von lenkdaten
DE102023107174A1 (de) Steuereinheit für eine Fahrzeugkamera, Fahrzeugkamerasystem und Verfahren zum Bereitstellen einer Fehlausrichtungkompensation
DE102019133870B4 (de) Verfahren zum bestimmen der belastung eines lenksystems in einem fahrzeug
DE102017005464A1 (de) Vorrichtung zum Kalibrieren zumindest einer Kamera eines Fahrzeugs
DE102015122415A1 (de) Verfahren zum Erkennen einer bandbegrenzenden Fehlfunktion einer Kamera, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified