DE102014106506A1 - Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug - Google Patents

Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug Download PDF

Info

Publication number
DE102014106506A1
DE102014106506A1 DE102014106506.9A DE102014106506A DE102014106506A1 DE 102014106506 A1 DE102014106506 A1 DE 102014106506A1 DE 102014106506 A DE102014106506 A DE 102014106506A DE 102014106506 A1 DE102014106506 A1 DE 102014106506A1
Authority
DE
Germany
Prior art keywords
motor vehicle
camera system
classification
classes
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014106506.9A
Other languages
English (en)
Inventor
Lowik Chanussot
Julien Rebut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102014106506.9A priority Critical patent/DE102014106506A1/de
Priority to PCT/EP2015/059126 priority patent/WO2015169636A1/en
Priority to EP15718883.0A priority patent/EP3140777B1/de
Priority to US15/308,709 priority patent/US10178382B2/en
Publication of DE102014106506A1 publication Critical patent/DE102014106506A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • B60T8/17Using electrical or electronic regulation means to control braking
    • B60T8/171Detecting parameters used in the regulation; Measuring values used in the regulation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Durchführen einer Diagnose eines Kamerasystems (2) eines Kraftfahrzeugs (1), durch: Bereitstellen zumindest eines Bilds (BD) mittels einer Kamera (3); Detektieren eines Objekts (6) in dem Bild (BD) mittels einer Bildverarbeitungseinrichtung; Bereitstellen von Sensordaten (SD) mittels zumindest eines Sensors (7) des Kraftfahrzeugs (1), wobei die Sensordaten (SD) Umgebungsbedingungen des Kraftfahrzeugs (1) charakterisieren; erstes Klassifizieren des Objekts (6) und hierbei Zuordnen des Objekts (6) zu einer Klasse (K1, K2, K3, K4) aus mehreren vorbestimmten Klassen (K1, K2, K3, K4) in Abhängigkeit von den Umgebungsbedingungen, wobei sich die Klassen (K1, K2, K3, K4) hinsichtlich der Umgebungsbedingungen untereinander unterscheiden; zweites Klassifizieren des zumindest einen Objekts (6) und hierbei Zuordnen des Objekts (6) zu einer der Klassen (K1, K2, K3, K4) anhand des Bilds (BD) und unabhängig von den Sensordaten (SD) durch eine Klassifizierungseinrichtung (12) unter Verwendung eines vorbestimmten Klassifizierungsmodells (11); und Vergleichen von Klassifizierungsergebnissen der ersten und der zweiten Klassifizierung und Durchführen der Diagnose abhängig von dem Vergleich.

Description

  • Die Erfindung betrifft ein Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs. Die Erfindung betrifft außerdem ein Kamerasystem, welches zum Durchführen eines solchen Verfahrens ausgebildet ist, wie auch ein Kraftfahrzeug mit einem derartigen Kamerasystem.
  • Kamerasysteme für Kraftfahrzeuge sind bereits aus dem Stand der Technik bekannt. Vorliegend richtet sich das Interesse auf ein Kamerasystem, mittels welchem Objekte in der Umgebung des Kraftfahrzeugs detektiert werden können. Dazu werden insbesondere Frontkameras eingesetzt, welche üblicherweise Bilder eines Umgebungsbereiches vor dem Kraftfahrzeug bereitstellen. Diese Sequenz von Bildern wird mittels einer elektronischen Bildverarbeitungseinrichtung verarbeitet, welche in den Bildern Zielobjekte detektiert. Dazu werden die Bilder einem Objektdetektionsalgorithmus unterzogen. Solche Detektionsalgorithmen sind bereits Stand der Technik und basieren beispielsweise auf einer Mustererkennung. Um ein Zielobjekt zu detektieren, können zunächst sogenannte charakteristische Punkte aus dem Bild extrahiert und anhand dieser charakteristischen Punkte dann ein Zielobjekt identifiziert werden. Als Beispiel können dabei folgende Algorithmen genannt werden: Adaboost und HOG-SVM.
  • Wird ein Zielobjekt in einem Bild der Kamera identifiziert, so kann dieses Zielobjekt auch über die nachfolgenden Bilder der Sequenz hinweg verfolgt werden. Das Zielobjekt wird dabei in jedem Bild detektiert, wobei die Detektion in dem aktuellen Bild der Detektion aus dem vorherigen Bild zugeordnet werden muss. Durch das Verfolgen des Zielobjekts sind die aktuelle Position des Zielobjekts in dem Bildrahmen und somit auch die aktuelle relative Position des Zielobjekts bezüglich des Kraftfahrzeugs stets bekannt. Als Verfolgungsalgorithmus kann dabei beispielsweise die Lucas-Kanade-Methode genutzt werden.
  • Ein genanntes Kamerasystem mit einer Frontkamera kann als Kollisionswarnungssystem genutzt werden, mittels welchem der Fahrer vor einer Kollisionsgefahr mit dem Zielobjekt gewarnt werden kann. Ein solches Kollisionswarnungssystem kann beispielsweise Warnsignale ausgeben, um den Fahrer über die detektierte Kollisionsgefahr akustisch und/oder optisch und/oder haptisch zu informieren. Ergänzend oder alternativ kann das Kamerasystem auch als automatisches Bremsassistenzsystem genutzt werden, welches dazu ausgelegt ist, aufgrund der detektierten Kollisionsgefahr automatische Bremseingriffe des Kraftfahrzeugs vorzunehmen. Als Maß für die aktuelle Kollisionsgefahr kann dabei beispielsweise die so genannte Zeit bis zur Kollision (time to collision) genutzt werden, das heißt eine Zeitdauer, welche durch das Kraftfahrzeug voraussichtlich benötigt wird, um das Zielobjekt zu erreichen. Diese Zeit bis zur Kollision kann aus der eingeschätzten Entfernung des Zielobjekts sowie aus der relativen Geschwindigkeit berechnet werden.
  • Ein Kamerasystem zur Detektion von Objekten ist beispielsweise aus dem Dokument US 2012/0119894 A1 bekannt. Dieses Kamerasystem ist zur Klassifizierung der detektierten Objekte ausgebildet und kann jedes Objekt zu einer Klasse bzw. Kategorie aus drei möglichen Klassen zuordnen. Dazu werden auch Daten eines Radarsensors verwendet.
  • Ein Verfahren, bei welchem einerseits Bilder einer Kamera und andererseits Daten eines Radarsensors miteinander kombiniert werden, ist des Weiteren aus dem Dokument US 8 081 209 B2 bekannt. Anhand der Daten des Radarsensors werden hier Regionen von Interesse bestimmt, in denen dann die Bilder verarbeitet werden und in denen somit die Objekte gesucht werden.
  • Ein Verfahren zum Klassifizieren von Objekten mit Hilfe eines Klassifikators ist aus dem Dokument US 7 724 962 B2 bekannt. Das Trainieren des Klassifikators erfolgt auf der Basis von Helligkeitswerten der Bilder, wobei Testbilddaten beispielsweise in drei Kategorien hinsichtlich der Helligkeit unterteilt werden.
  • Eine besondere Herausforderung bei heutigen Kamerasystemen besteht darin, eine Diagnose des Kamerasystems durchzuführen und das Kamerasystem somit auf die Zuverlässigkeit der Objekterkennung hin überprüfen zu können. Als problematisch hat sich insbesondere die Diagnose der bekannten Objektdetektionsalgorithmen sowie der Klassifizierungsalgorithmen erwiesen. Werden solche Algorithmen in einem Kamerasystem eines Kraftfahrzeugs verwendet, so besteht im Stand der Technik grundsätzlich keine Möglichkeit mehr, diese Algorithmen auf mögliche Detektionsfehler und/oder Klassifizierungsfehler hin zu überprüfen.
  • Es ist Aufgabe der Erfindung, eine Lösung aufzuzeigen, wie ein Kamerasystem eines Kraftfahrzeugs besonders zuverlässig diagnostiziert und somit auf seine Funktionsfähigkeit hin überprüft werden kann.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch ein Kamerasystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Ein erfindungsgemäßes Verfahren dient zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs. Mittels einer Kamera des Kamerasystems wird zumindest ein Bild eines Umgebungsbereiches des Kraftfahrzeugs bereitgestellt. Eine elektronische Bildverarbeitungseinrichtung des Kamerasystems detektiert zumindest ein fahrzeugexternes Objekt in dem Bild, insbesondere unter Verwendung eines Detektionsalgorithmus. Es kann dabei grundsätzlich ein beliebiger Detektionsalgorithmus verwendet werden, so dass vorliegend auf den Detektionsalgorithmus nicht näher eingegangen wird. Es werden außerdem Sensordaten mittels zumindest eines, insbesondere von der Kamera separaten, Sensors des Kraftfahrzeugs bereitgestellt, wobei die Sensordaten Umgebungsbedingungen des Kraftfahrzeugs charakterisieren und somit abhängig von den aktuellen Umgebungsbedingungen sind. Dann wird eine erste Klassifizierung des zumindest eines Objekts durchgeführt, indem das Objekt zu einer Klasse aus mehreren vorbestimmten Klassen in Abhängigkeit von den Umgebungsbedingungen zugeordnet wird. Die Klassen unterscheiden sich dabei hinsichtlich der Umgebungsbedingungen untereinander. Unabhängig davon wird eine zweite Klassifizierung des zumindest einen Objekts durchgeführt, indem das Objekt zu einer der genannten Klassen unabhängig von den Sensordaten und somit alleine anhand des Bilds zugeordnet wird. Dazu wird eine Klassifizierungseinrichtung bzw. ein Klassifikator verwendet, welche/welcher ein vorbestimmtes Klassifizierungsmodell anwendet. Das Klassifizierungsergebnis der ersten Klassifizierung wird dann mit dem Klassifizierungsergebnis der zweiten Klassifizierung verglichen, und die Diagnose wird abhängig von diesem Vergleich durchgeführt.
  • Erfindungsgemäß wird demnach ein Diagnoseverfahren bereitgestellt, bei welchem ein detektiertes Objekt mit zwei voneinander unabhängigen Klassifizierungsmethoden hinsichtlich der gleichen Klassen klassifiziert wird. Einerseits werden zur Klassifizierung des detektierten Objekts Sensordaten eines Fahrzeugsensors berücksichtigt, welche die Umgebungsbedingungen und somit die Szene zum Zeitpunkt der Aufnahme des Bilds beschreiben. Diese erste Klassifizierung kann ohne viel Aufwand mittels eines Verteilers (Splitter) durchgeführt werden und ist besonders wenig fehleranfällig, da Sensordaten zur Bestimmung der Umgebungsbedingungen herangezogen werden und die Klassifizierung somit direkt abhängig von den gemessenen, bekannten Umgebungsbedingungen erfolgen kann. Andererseits wird das Objekt mit Hilfe eines vorbestimmten Klassifizierungsmodells bzw. Klassifizierungsalgorithmus (Klassifikator) klassifiziert, wobei dieser zweiten Klassifizierung lediglich das Bild bzw. das detektierte Objekt zugrunde gelegt wird, ohne dass dazu die Sensordaten herangezogen werden. Wird eine Abweichung zwischen den beiden Klassifizierungsergebnissen festgestellt, so stellt dies einen Hinweis auf einen möglichen Fehler der Bildverarbeitungseinrichtung und/oder der Klassifizierungseinrichtung dar. Mit dem erfindungsgemäßen Verfahren lassen sich solche Fehler ohne viel Aufwand und besonders zuverlässig diagnostizieren, und es kann im Fehlerfall eine Warnmeldung an den Fahrer ausgegeben werden. Ein fehlerhafter Betrieb des Kamerasystems kann somit verhindert werden.
  • Die Kamera ist vorzugsweise eine Frontkamera, welche insbesondere hinter einer Windschutzscheibe des Kraftfahrzeugs angeordnet ist, beispielsweise direkt an der Windschutzscheibe im Innenraum des Kraftfahrzeugs. Die Frontkamera erfasst dann die Umgebung in Fahrtrichtung bzw. in Fahrzeuglängsrichtung vor dem Kraftfahrzeug. Dies kann insbesondere bedeuten, dass eine senkrecht zur Ebene des Bildsensors verlaufende Kameraachse parallel zur Fahrzeuglängsachse orientiert ist.
  • Die Kamera ist vorzugsweise eine Video-Kamera, welche eine Vielzahl von Bildern (Frames) pro Sekunde bereitstellen kann. Die Kamera kann eine CCD-Kamera oder eine CMOS-Kamera sein.
  • Also kann in einer Ausführungsform vorgesehen sein, dass falls durch das Kamerasystem detektiert wird, dass durch die erste Klassifizierung das Objekt einer anderen Klasse als durch die zweite Klassifizierung zugeordnet wurde, ein Fehlersignal durch das Kamerasystem erzeugt wird. Dieses Fehlersignal kann beispielsweise eine Warnmeldung in einem Kombiinstrument des Kraftfahrzeugs erzeugen. Ergänzend oder alternativ kann ein derartiges Fehlersignal auch dazu führen, dass das Kamerasystem deaktiviert und somit außer Betrieb genommen wird, um fehlerhafte Detektionen zu vermeiden.
  • Das detektierte Objekt wird hinsichtlich mehrerer vorbestimmter Klassen klassifiziert, wobei sich die Klassen in den Umgebungsbedingungen des Kraftfahrzeugs untereinander unterscheiden. Dabei wird das Objekt einer Klasse aus den mehreren Klassen zugeordnet. Insbesondere kann in diesem Zusammenhang vorgesehen sein, dass sich die mehreren Klassen in einer Helligkeit des Umgebungsbereiches untereinander unterscheiden. Eine Klasse kann beispielsweise Objekte beinhalten, welche bei einer hellen Umgebung (tagsüber) detektiert werden. Eine andere Klasse kann beispielsweise Objekte beinhalten, welche bei einer dunklen Umgebung (nachts) detektiert werden. Es können auch mehrere Helligkeitsgrade definiert werden.
  • Ergänzend oder alternativ können sich die Klassen auch in atmosphärischen Bedingungen des Umgebungsbereiches und somit in Wetterbedingungen untereinander unterscheiden. Eine der Klassen kann dabei beispielsweise einem Regen zugeordnet sein, während eine andere Klasse beispielsweise Objekte beinhalten kann, welche bei einer trockenen Umgebung detektiert werden. Auch hier können mehrere Zwischenstufe definiert werden.
  • Werden die oben genannten Ausführungsformen miteinander kombiniert, so kann eine erste Klasse beispielsweise Objekte beinhalten, die bei einer dunklen Umgebung und bei Regen detektiert werden, während eine andere Klasse Objekte beinhalten kann, die tagsüber und bei einer trockenen Umgebung detektiert werden.
  • Es erweist sich als besonders vorteilhaft, wenn als Sensordaten folgende Daten bereitgestellt und bei der ersten Klassifizierung des Objekts berücksichtigt werden:
    • – Daten, die einen aktuellen Betriebszustand eines Scheinwerfers des Kraftfahrzeugs angeben, und/oder
    • – Daten, die einen aktuellen Betriebszustand eines Scheibenwischers des Kraftfahrzeugs charakterisieren, und/oder
    • – Sensordaten eines Regensensors und/oder
    • – Sensordaten eines Helligkeitssensors des Kraftfahrzeugs.
  • Die oben genannten Daten haben den Vorteil, dass anhand dieser Daten die Helligkeit der Umgebung und/oder die aktuellen Wetterbedingungen ermittelt werden können. Diese Daten ermöglichen nämlich Rückschlüsse auf die Helligkeit der Umgebung und/oder auf die atmosphärischen Bedingungen des Umgebungsbereiches und ermöglichen somit eine zuverlässige (erste) Klassifizierung des zumindest einen Objekts.
  • Hinsichtlich des Klassifizierungsmodells, mittels welchem die zweite Klassifizierung vorgenommen wird, können folgende Ausführungsformen vorgesehen sein:
    Als Klassifizierungsmodell kann beispielsweise ein HOG-Klassifikator (Histogram of Oriented Gradients) und/oder ein SVM-Klassifikator (Support Vector Machine) und/oder ein Klassifikator verwendet werden, der auf einer Klassifikationsbaum-Methode (Classification Tree Method) basiert. Diese Algorithmen können einerseits trainiert werden und ermöglichen andererseits eine zuverlässige und präzise Klassifizierung von Objekten.
  • Insbesondere wird als Klassifizierungsmodell ein Algorithmus verwendet, der mit Testbilddaten hinsichtlich der Klassifizierung trainiert wird. Beim Trainieren des Algorithmus wird vorzugsweise eine Testdatenbank bereitgestellt, welche Testbilddaten beinhaltet, das heißt eine sehr große Anzahl von Bildern. Diese Testbilddaten beinhalten eine Vielzahl von Objekten, welche mittels eines entsprechenden Objektdetektionsalgorithmus detektiert und dann in Klassen unterteilt werden. Diese klassifizierten Objekte werden dann dem Algorithmus „mitgeteilt” und so dem Training des Algorithmus zugrunde gelegt. Diese Klassen sollen also von dem Algorithmus „gelernt” werden. Ein bereits trainierter Algorithmus ist dann in der Lage, die detektierten Objekte hinsichtlich der gelernten Klassen zu klassifizieren.
  • Vorzugsweise erfolgt das Trainieren des Algorithmus folgendermaßen: In den Testbilddaten werden zunächst Objekte detektiert. Des Weiteren werden die Klassen definiert. Wie bereits ausgeführt, unterscheiden sich die Klassen untereinander in den Umgebungsbedingungen und somit in der Szene zum Zeitpunkt der Aufnahme der Bilddaten. Zu den Testbilddaten werden Sensordaten zugeordnet, welche mittels zumindest eines Sensors bereitgestellt werden und welche die Umgebungsbedingungen zum Zeitpunkt der Aufnahme der Testbilddaten charakterisieren. Die detektierten Objekte werden in Abhängigkeit von diesen Sensordaten jeweils zu einer Klasse aus den genannten Klassen zugeordnet. Diese klassifizierten Objekte werden dann dem Trainieren des Algorithmus zugrunde gelegt. Durch die Verwendung von Sensordaten zumindest eines Fahrzeugsensors kann das Training des Algorithmus besonders präzise und zuverlässig durchgeführt werden. Das Training basiert nämlich auf bereits klassifizierten Objekten, welche sehr präzise anhand der Sensordaten klassifiziert und somit den jeweiligen Klassen zugeordnet wurden. Das Training kann somit automatisiert durchgeführt werden, wodurch auch eine Vielzahl von Testbildern für dieses Training genutzt werden können und somit auch die Genauigkeit und Zuverlässigkeit des trainierten Algorithmus verbessert werden kann.
  • Hinsichtlich des Zeitpunkts des Trainings können prinzipiell zwei Ausführungsformen vorgesehen sein:
    Das Trainieren des Algorithmus kann in einer Entwicklungsphase des Kamerasystems durchgeführt werden. In dieser Ausführungsform können die Testbilddaten beispielsweise mittels einer Kamera bereitgestellt werden, welche an einem Testfahrzeug angebracht ist. Auch die Sensordaten werden gleichzeitig mittels zumindest eines Sensors dieses Testfahrzeugs bereitgestellt und zeitlich zu den Testbilddaten zugeordnet.
  • Ergänzend oder alternativ kann das Trainieren des Algorithmus auch im Betrieb des Kamerasystems anhand von Bilddaten durchgeführt werden, welche im Betrieb des Kamerasystems mittels der Kamera bereitgestellt werden. Diese Vorgehensweise hat den Vorteil, dass der Algorithmus somit auch während des Betriebs präzisiert und somit verbessert werden kann, wodurch die Wahrscheinlichkeit eines Fehlers weiterhin reduziert wird.
  • Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, wobei das Kamerasystem zum Durchführen eines erfindungsgemäßen Verfahrens ausgebildet ist.
  • Ein erfindungsgemäßes Kraftfahrzeug, insbesondere Personenkraftwagen, umfasst ein erfindungsgemäßes Kamerasystem.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für das erfindungsgemäße Kamerasystem sowie für das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 in schematischer Darstellung ein Kraftfahrzeug mit einem Kamerasystem gemäß einer Ausführungsform der Erfindung; und
  • 2 bis 4 Blockdiagramme zur Erläuterung eines Verfahrens gemäß einer Ausführungsform der Erfindung.
  • Ein in 1 gezeigtes Kraftfahrzeug 1 ist im Ausführungsbeispiel ein Personenkraftwagen. Das Kraftfahrzeug 1 umfasst ein Kamerasystem 2, welches zum Beispiel als Kollisionswarnungssystem dient, mittels welchem der Fahrer des Kraftfahrzeugs 1 vor einer Kollisionsgefahr gewarnt werden kann. Ergänzend oder alternativ kann das Kamerasystem 2 als automatisches Bremsassistenzsystem ausgebildet sein, mittels welchem das Kraftfahrzeug 1 aufgrund einer detektierten Kollisionsgefahr automatisch abgebremst werden kann.
  • Das Kamerasystem 2 umfasst eine Kamera 3, welche als Frontkamera ausgebildet ist. Die Kamera 3 ist im Innenraum des Kraftfahrzeugs 1 an einer Windschutzscheibe des Kraftfahrzeugs 1 angeordnet und erfasst einen Umgebungsbereich 4 vor dem Kraftfahrzeug 1. Die Kamera 3 ist beispielsweise eine CCD-Kamera oder aber eine CMOS-Kamera. Die Kamera 3 ist außerdem eine Video-Kamera, welche eine Sequenz von Bildern des Umgebungsbereichs 4 bereitstellt und an eine in den Figuren nicht dargestellte Bildverarbeitungseinrichtung übermittelt. Diese Bildverarbeitungseinrichtung und die Kamera 3 können optional auch in ein gemeinsames Gehäuse integriert sein.
  • Wie aus 1 hervorgeht, befindet sich auf einer Fahrbahn 5 vor dem Kraftfahrzeug 1 ein Objekt 6, hier ein Zielfahrzeug. Die Bildverarbeitungseinrichtung ist so eingerichtet, dass sie auf die Bilder des Umgebungsbereichs 4 einen Detektionsalgorithmus anwenden kann, welcher zur Detektion von Objekten 6 ausgelegt ist. Dieser Detektionsalgorithmus kann beispielsweise in einem Speicher der Bildverarbeitungseinrichtung abgelegt sein und beispielsweise auf dem Algorithmus AdaBoost basieren. Solche Detektionsalgorithmen sind bereits Stand der Technik und werden hier nicht näher beschrieben. Wird das Objekt 6 detektiert, so kann dieses durch die Bildverarbeitungseinrichtung über die Zeit verfolgt werden. Auch dazu sind entsprechende Verfolgungsalgorithmen bekannt.
  • Das Kamerasystem 2 ist so ausgebildet, dass es eine Diagnose des Kamerasystems 2 im Betrieb durchführen kann. Dazu wird eine Klassifizierungseinrichtung eingesetzt, welche die detektierten Objekte 6 unter Verwendung eines vorbestimmten Klassifizierungsmodells klassifizieren kann. Diese Klassifizierungsmodell stellt einen Algorithmus dar, welcher zunächst in einer „offline”-Phase (in der Entwicklung des Kamerasystems 2) und/oder im Betrieb des Kraftfahrzeugs 1 trainiert wird. Als Algorithmus kann beispielsweise ein HOG-Klassifikator und/oder ein SVM-Klassifikator und/oder eine Klassifikationsbaum-Methode verwendet werden.
  • Ein Blockdiagramm, welches zum Trainieren des Algorithmus bzw. des Klassifizierungsmodells dient, ist in 2 schematisch dargestellt. Zumindest ein Fahrzeugsensor 7 (ein Sensor eines Testfahrzeugs und/oder ein Sensor des Kraftfahrzeug 1) stellt Sensordaten SD bereit, welche die Umgebungsbedingungen des Kraftfahrzeugs charakterisieren. Beispielsweise werden folgende Sensordaten SD bereitgestellt:
    • – Daten, die einen aktuellen Betriebszustand eines Scheinwerfers des Kraftfahrzeugs 1 (bzw. des Testfahrzeugs) angeben, und/oder
    • – Daten, die einen aktuellen Betriebszustand eines Scheibenwischers des Kraftfahrzeugs 1 (bzw. des Testfahrzeugs) angeben und/oder
    • – Sensordaten eines Regensensors und/oder eines Helligkeitssensors des Kraftfahrzeugs 1 (bzw. des Testfahrzeugs).
  • Mittels der Kamera 3 (diese kann in 2 am Testfahrzeug und/oder am Kraftfahrzeug 1 angebracht sein) werden Testbilddaten TBD bereitgestellt. Sowohl die Sensordaten SD als auch die Testbilddaten TBD werden einem Objektdetektionsalgorithmus 8 zugeführt, welcher in der genannten Bildverarbeitungseinrichtung implementiert sein kann. Der Objektdetektionsalgorithmus 8 detektiert in den Bilddaten TBD ein Objekt 6 und gibt dieses an einen Verteiler 9 (Splitter) ab, welcher zusätzlich auch die Sensordaten SD empfängt. Der Verteiler 9 ordnet das detektierte Objekt 6 zu einer Klasse aus mehreren vorbestimmten Klassen K1 bis K4 in Abhängigkeit von den Sensordaten SD zu. Dies bedeutet, dass das Objekt 6 in Abhängigkeit von den Umgebungsbedingungen klassifiziert und hierbei einer der Klassen K1 bis K4 zugeordnet wird.
  • Die Klassen K1 bis K4 können sich in der Helligkeit der Umgebung und/oder in den atmosphärischen Bedingungen untereinander unterscheiden. Eine der Klassen K1 bis K4 kann für Objekte 6 bestimmt sein, welche bei einer dunklen Umgebung und beim Regen detektiert werden. Eine andere der Klassen K1 bis K4 kann für Objekte 6 bestimmt sein, welche bei einer hellen und trockenen Umgebung detektiert werden. Zu welcher der Klassen K1 bis K4 das detektierte Objekt 6 zugeordnet wird, wird abhängig von den Sensordaten SD bestimmt.
  • Grundsätzlich ist die Anzahl der Klassen K1 bis K4 nicht beschränkt. Die Anzahl der Klassen K1 bis K4 wird jedoch derart festgelegt, dass beim Trainieren des Algorithmus jede der Klassen K1 bis K4 eine Mindestanzahl von Objekten enthält.
  • Die klassifizierten Objekte werden dann einem Lehrling 10 (Learner) zugeführt, um so das Klassifizierungsmodell 11 zu erzeugen bzw. zu trainieren. Das Klassifizierungsmodell 11 stellt also einen Klassifizierungsalgorithmus und somit einen Klassifikator dar.
  • Das oben beschriebene Verfahren dient also zum Trainieren des Klassifizierungsmodells 11 mit Hilfe von Testbilddaten TBD. Wie bereits ausgeführt, kann das Training in der Entwicklung des Kamerasystems 2 und/oder im Betrieb des Kraftfahrzeugs 1 durchgeführt werden. In der Entwicklung kann dabei ein Testfahrzeug verwendet werden, an welchem eine entsprechende Kamera 3 angebracht ist, welche die Testbilddaten bereitstellt. Zumindest ein Sensor 7 dieses Testfahrzeugs stellt dann die Sensordaten SD bereit. Wird das Training im Betrieb des Kraftfahrzeugs 1 durchgeführt, so werden die Testbilddaten durch die Kamera 3 des Kraftfahrzeugs 1 bereitgestellt, während die Sensordaten SD mittels zumindest eines Fahrzeugsensors 7 des Kraftfahrzeugs 1 bereitgestellt werden.
  • Im Betrieb des Kamerasystems 2 wird dann eine Diagnose durchgeführt. Ein entsprechendes Blockdiagramm ist in 3 dargestellt: Zumindest ein Fahrzeugsensor 7 des Kraftfahrzeugs 1 stellt aktuelle Sensordaten SD bereit, welche die oben bereits genannten Daten beinhalten können, das heißt Informationen über den aktuellen Betriebszustands des Scheinwerfers und/oder Informationen über den aktuellen Betriebszustand des Scheibenwischers und/oder Informationen eines Regensensors und/oder Informationen eines Helligkeitssensors. Die Kamera 3 stellt aktuelle Bilddaten BD bereit. Sowohl die Sensordaten SD als auch die Bilddaten BD werden dem Objektdetektionsalgorithmus 8 zugeführt, welcher in der genannten Bildverarbeitungseinrichtung implementiert ist. Der Objektdetektionsalgorithmus 8 detektiert ein Objekt 6 und übermittelt das Ergebnis der Detektion einerseits an eine Klassifizierungseinrichtung 12, in welcher der trainierte Klassifizierungsalgorithmus bzw. das Klassifizierungsmodell 11 implementiert ist, sowie andererseits an den Verteiler 9 (Splitter). Der Verteiler 9 und/oder die Klassifizierungseinrichtung 12 können auch in der Bildverarbeitungseinrichtung implementiert sein.
  • Der Verteiler 9 empfängt außerdem die aktuellen Sensordaten SD. Diese Sensordaten SD werden jedoch nicht an die Klassifizierungseinrichtung 12 übermittelt.
  • Nun wird das detektierte Objekt 6 auf zwei unterschiedliche Arten klassifiziert, nämlich einerseits mittels des Verteilers 9 und andererseits auch mittels des Klassifizierungsmodells 11. Der Verteiler 9 führt eine erste Klassifizierung des Objekts 6 durch, indem das Objekt 6 in Abhängigkeit von den Sensordaten SD einer der Klassen K1 bis K4 zugeordnet wird. Unabhängig davon und somit unabhängig von den Sensordaten SD wird das Objekt 6 auch mittels des Klassifizierungsmodells 11 klassifiziert, welches das Objekt 6 einer der Klassen K1 bis K4 zuordnet.
  • Eine Diagnoseeinrichtung 13, welche ebenfalls in der Bildverarbeitungseinrichtung implementiert sein kann, vergleicht dann die Klassifizierungsergebnisse der ersten und der zweiten Klassifizierung und führt die Diagnose des Kamerasystems 2 abhängig von dem Vergleich. Wird eine Abweichung zwischen den Klassifizierungsergebnissen festgestellt, kann ein Fehlersignal 14 ausgegeben werden.
  • Das Kamerasystem 2 gemäß 4 unterscheidet sich von dem Kamerasystem 2 gemäß 3 dadurch, dass die Klassifizierungseinrichtung 12 mit dem Klassifizierungsmodell 11 ein Teil des Objektdetektionsalgorithmus 8 ist. In diesem Fall stellt das Trainieren des Klassifizierungsmodells 11 einen Teil des Systems bzw. des Objekterkennungsalgorithmus 8 dar. Das Training kann hier lediglich eine entsprechende Einstellung des Verteilers 9 beinhalten, um gleiche Ergebnisse wie mit dem Objektdetektionsalgorithmus 8 zu erhalten. Ein Vorteil dieser Ausführungsform besteht in der Reduktion der Rechenzeit durch die Verwendung von Ergebnissen des Objekterkennungsalgorithmus 8.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2012/0119894 A1 [0005]
    • US 8081209 B2 [0006]
    • US 7724962 B2 [0007]

Claims (12)

  1. Verfahren zum Durchführen einer Diagnose eines Kamerasystems (2) eines Kraftfahrzeugs (1), mit den Schritten: – Bereitstellen zumindest eines Bilds (BD) eines Umgebungsbereichs (4) des Kraftfahrzeugs (1) mittels einer Kamera (3) des Kamerasystems (2), – Detektieren zumindest eines fahrzeugexternen Objekts (6) in dem Bild (BD) mittels einer Bildverarbeitungseinrichtung des Kamerasystems (2), – Bereitstellen von Sensordaten (SD) mittels zumindest eines Sensors (7) des Kraftfahrzeugs (1), wobei die Sensordaten (SD) Umgebungsbedingungen des Kraftfahrzeugs (1) charakterisieren, – erstes Klassifizieren des zumindest einen Objekts (6) und hierbei Zuordnen des Objekts (6) zu einer Klasse (K1, K2, K3, K4) aus mehreren vorbestimmten Klassen (K1, K2, K3, K4) in Abhängigkeit von den Umgebungsbedingungen, wobei sich die Klassen (K1, K2, K3, K4) hinsichtlich der Umgebungsbedingungen untereinander unterscheiden, – zweites Klassifizieren des zumindest einen Objekts (6) und hierbei Zuordnen des Objekts (6) zu einer der Klassen (K1, K2, K3, K4) anhand des Bilds (BD) und unabhängig von den Sensordaten (SD) durch eine Klassifizierungseinrichtung (12) unter Verwendung eines vorbestimmten Klassifizierungsmodells (11) und – Vergleichen von Klassifizierungsergebnissen der ersten und der zweiten Klassifizierung und Durchführen der Diagnose abhängig von dem Vergleich.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass falls durch das Kamerasystem (2) detektiert wird, dass durch die erste Klassifizierung das Objekt (6) einer anderen Klasse (K1, K2, K3, K4) als durch die zweite Klassifizierung zugeordnet wurde, ein Fehlersignal (14) durch das Kamerasystem (2) erzeugt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass sich die Klassen (K1, K2, K3, K4) in einer Helligkeit des Umgebungsbereichs (4) untereinander unterscheiden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sich die Klassen (K1, K2, K3, K4) in atmosphärischen Bedingungen des Umgebungsbereichs (4) untereinander unterscheiden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Sensordaten (SD) folgende Daten bereitgestellt werden: – Daten, welche einen aktuellen Betriebszustand eines Scheinwerfers des Kraftfahrzeugs (1) angeben, und/oder – Daten, welche einen aktuellen Betriebszustand eines Scheibenwischers des Kraftfahrzeugs (1) angeben, und/oder – Sensordaten eines Regensensors und/oder eines Helligkeitssensors des Kraftfahrzeugs (1).
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Klassifizierungsmodell (11) ein HOG-Klassifikator und/oder ein SVM-Klassifikator und/oder ein Klassifikator verwendet wird, welcher auf einer Klassifikationsbaum-Methode basiert.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Klassifizierungsmodell (11) ein Algorithmus verwendet wird, welcher mit Testbilddaten (TBD) hinsichtlich der Klassifizierung trainiert wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Trainieren des Algorithmus umfasst, dass Objekte (6) in den Testbilddaten (TBD) detektiert und abhängig von Sensordaten (SD) zumindest eines Sensors (7), welche Umgebungsbedingungen zum Zeitpunkt der Aufnahme der Testbilddaten (TBD) charakterisieren, jeweils zu einer der Klassen (K1, K2, K3, K4) zugeordnet werden, wobei die klassifizierten Objekte (6) dem Trainieren des Algorithmus zugrunde gelegt werden.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass das Trainieren des Algorithmus in einer Entwicklungsphase des Kamerasystems (2) durchgeführt wird.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass das Trainieren des Algorithmus im Betrieb des Kamerasystems (2) anhand von Bilddaten (BD) durchgeführt wird, welche im Betrieb des Kamerasystems (2) mittels der Kamera (3) bereitgestellt werden.
  11. Kamerasystem (2) für ein Kraftfahrzeug (1), wobei das Kamerasystem (2) dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  12. Kraftfahrzeug (1), insbesondere Personenkraftwagen, mit einem Kamerasystem (2) nach Anspruch 11.
DE102014106506.9A 2014-05-08 2014-05-08 Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug Withdrawn DE102014106506A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102014106506.9A DE102014106506A1 (de) 2014-05-08 2014-05-08 Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
PCT/EP2015/059126 WO2015169636A1 (en) 2014-05-08 2015-04-28 Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle
EP15718883.0A EP3140777B1 (de) 2014-05-08 2015-04-28 Verfahren zur durchführung der diagnose eines kamerasystems eines kraftfahrzeugs, kamerasystem und kraftfahrzeug
US15/308,709 US10178382B2 (en) 2014-05-08 2015-04-28 Method for performing diagnosis of a camera system of a motor vehicle, camera system and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014106506.9A DE102014106506A1 (de) 2014-05-08 2014-05-08 Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102014106506A1 true DE102014106506A1 (de) 2015-11-12

Family

ID=53008507

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014106506.9A Withdrawn DE102014106506A1 (de) 2014-05-08 2014-05-08 Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Country Status (4)

Country Link
US (1) US10178382B2 (de)
EP (1) EP3140777B1 (de)
DE (1) DE102014106506A1 (de)
WO (1) WO2015169636A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017149385A1 (en) * 2016-02-29 2017-09-08 Analog Devices Global Visual vehicle parking occupancy sensor
WO2018007171A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
WO2018206481A1 (de) * 2017-05-11 2018-11-15 Audi Ag Verfahren zum generieren von trainingsdaten für ein auf maschinellem lernen basierendes mustererkennungsverfahren für ein kraftfahrzeug, kraftfahrzeug, verfahren zum betreiben einer recheneinrichtung sowie system
DE102019113647A1 (de) * 2019-05-22 2020-11-26 Ifm Electronic Gmbh Kamerasystem zur Erfassung von Objekten und/oder Objekteigenschaften
DE102020215744A1 (de) 2020-12-11 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und System zum Überwachen eines Einsatzbereiches einer bereitgestellten Funktion und Trainingsverfahren

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3282394A1 (de) * 2016-08-11 2018-02-14 Autoliv Development AB Ein system und ein verfahren der visuelle verarbeitung für ein kraftfahrzeug
JP6759059B2 (ja) * 2016-11-02 2020-09-23 株式会社東海理化電機製作所 撮影システム、運転支援システム及び報知システム
US10347007B2 (en) * 2016-11-14 2019-07-09 Nec Corporation Accurate object proposals by tracking detections
US10467486B2 (en) * 2017-12-29 2019-11-05 Automotive Research & Testing Center Method for evaluating credibility of obstacle detection
GB2574052B (en) * 2018-05-24 2021-11-03 Advanced Risc Mach Ltd Image processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10117250A1 (de) * 2001-04-06 2002-10-17 Giesecke & Devrient Gmbh Verfahren zum Test von Meßsystemen
US7724962B2 (en) 2006-07-07 2010-05-25 Siemens Corporation Context adaptive approach in vehicle detection under various visibility conditions
DE102009048117A1 (de) * 2009-10-02 2011-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objektss in einem Bild
US8081209B2 (en) 2008-06-26 2011-12-20 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system of sparse code based object classification with sensor fusion
US20120119894A1 (en) 2010-11-15 2012-05-17 Bendix Commercial Vehicle Systems, Llc Acb following distance alert and warning adjustment as a function of forward vehicle size and host vehicle mass

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5482314A (en) 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US7292152B2 (en) * 2003-06-12 2007-11-06 Temic Automotive Of North America, Inc. Method and apparatus for classifying vehicle operator activity state
US7609150B2 (en) 2006-08-18 2009-10-27 Motorola, Inc. User adaptive vehicle hazard warning apparatuses and method
US8605154B2 (en) * 2011-03-25 2013-12-10 International Business Machines Corporation Vehicle headlight management

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10117250A1 (de) * 2001-04-06 2002-10-17 Giesecke & Devrient Gmbh Verfahren zum Test von Meßsystemen
US7724962B2 (en) 2006-07-07 2010-05-25 Siemens Corporation Context adaptive approach in vehicle detection under various visibility conditions
US8081209B2 (en) 2008-06-26 2011-12-20 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system of sparse code based object classification with sensor fusion
DE102009048117A1 (de) * 2009-10-02 2011-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objektss in einem Bild
US20120119894A1 (en) 2010-11-15 2012-05-17 Bendix Commercial Vehicle Systems, Llc Acb following distance alert and warning adjustment as a function of forward vehicle size and host vehicle mass

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017149385A1 (en) * 2016-02-29 2017-09-08 Analog Devices Global Visual vehicle parking occupancy sensor
US10008115B2 (en) 2016-02-29 2018-06-26 Analog Devices Global Visual vehicle parking occupancy sensor
WO2018007171A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
DE102016008218A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten Erkennen von Objekten durch ein Fahrerassistenzsystem
US10913455B2 (en) 2016-07-06 2021-02-09 Audi Ag Method for the improved detection of objects by a driver assistance system
WO2018206481A1 (de) * 2017-05-11 2018-11-15 Audi Ag Verfahren zum generieren von trainingsdaten für ein auf maschinellem lernen basierendes mustererkennungsverfahren für ein kraftfahrzeug, kraftfahrzeug, verfahren zum betreiben einer recheneinrichtung sowie system
DE102019113647A1 (de) * 2019-05-22 2020-11-26 Ifm Electronic Gmbh Kamerasystem zur Erfassung von Objekten und/oder Objekteigenschaften
DE102020215744A1 (de) 2020-12-11 2022-06-15 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren und System zum Überwachen eines Einsatzbereiches einer bereitgestellten Funktion und Trainingsverfahren

Also Published As

Publication number Publication date
US20170180723A1 (en) 2017-06-22
US10178382B2 (en) 2019-01-08
EP3140777B1 (de) 2021-06-23
WO2015169636A1 (en) 2015-11-12
EP3140777A1 (de) 2017-03-15

Similar Documents

Publication Publication Date Title
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE102008013366B4 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
WO2015048954A1 (de) Verfahren und vorrichtung zur erkennung von verkehrszeichen
EP2951804A1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102017208718A1 (de) Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102014201158A1 (de) Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts
WO2018202552A1 (de) Verfahren und vorrichtung zum klassifizieren von objekten im umfeld eines kraftfahrzeuges
WO2017102150A1 (de) Verfahren zum bewerten einer durch zumindest einen sensor eines fahrzeugs erfassten gefahrensituation, verfahren zum steuern einer wiedergabe einer gefahrenwarnung und verfahren zum wiedergeben einer gefahrenwarnung
DE102016207463A1 (de) Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102016212716A1 (de) Steuervorrichtung und verfahren
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
DE102019102672A1 (de) Intersensorisches lernen
DE102014206227A1 (de) Stereokamerasystem
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
DE102021209137A1 (de) Verfahren und Vorrichtung zum Analysieren und Bewerten der Leistung eines automatischen Notbremssystems eines Fahrzeugs
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2017012743A1 (de) Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel
DE102016103037A1 (de) Verfahren zum Überprüfen einer Funktionstüchtigkeit eines Kamera-Monitor-Systems, Kamera-Monitor-System sowie Kraftfahrzeug
DE102016107530A1 (de) Vorschriftsgeschwindigkeitsanzeigevorrichtung eines Fahrzeugs
DE102019005825A1 (de) Verfahren zum Erzeugen von Trainingsdaten für eine kraftfahrzeugexterne elektronische Recheneinrichtung, sowie Fahrerassistenzsystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination