DE102013012781A1 - Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug - Google Patents

Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug Download PDF

Info

Publication number
DE102013012781A1
DE102013012781A1 DE102013012781.5A DE102013012781A DE102013012781A1 DE 102013012781 A1 DE102013012781 A1 DE 102013012781A1 DE 102013012781 A DE102013012781 A DE 102013012781A DE 102013012781 A1 DE102013012781 A1 DE 102013012781A1
Authority
DE
Germany
Prior art keywords
algorithm
patterns
training
entries
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013012781.5A
Other languages
English (en)
Inventor
James McDonald
John McDonald
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102013012781.5A priority Critical patent/DE102013012781A1/de
Priority to PCT/EP2014/066335 priority patent/WO2015014873A1/en
Publication of DE102013012781A1 publication Critical patent/DE102013012781A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Trainieren eines Algorithmus (18) zum Erkennen von vorbestimmten Mustern in Bilddaten, welche mittels einer Kamera eines Kraftfahrzeugs bereitgestellt werden, mit den Schritten: a) Bereitstellen (S1) einer Testdatenbank (17) mit Testbilddaten, wobei die Testbilddaten eine Gesamtmenge (G) von Mustern beinhalten; b) Auswählen (S2) einer exemplarischen Untermenge (S) von Mustern, welche repräsentativ für vorbestimmte Objekte sind; c) erstes Trainieren (S3) des Algorithmus (18) anhand der ausgewählten Untermenge (S) der Muster und hierbei Bereitstellen eines vorläufig trainierten Algorithmus (18); d) Anwenden (S4) des vorläufig trainierten Algorithmus (18) auf die gesamte Testdatenbank (17) und hierbei Bereitstellen einer Ergebnisliste (19) von Einträgen; e) Verwerfen (S5) von Einträgen aus der Ergebnisliste (19), bei welchen die Zuordnung des erkannten Musters zu dem Objekt durch den vorläufig trainierten Algorithmus (18) korrekt vorgenommen wurde; und f) zweites Trainieren (S6) des vorläufig trainierten Algorithmus (18) anhand der verbleibenden Einträge.

Description

  • Die Erfindung betrifft ein Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, welche mittels einer Kamera eines Kraftfahrzeugs bereitgestellt werden. Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, umfassend eine Kamera zum Bereitstellen von Bildern, sowie umfassend eine Bildverarbeitungseinrichtung mit einem Algorithmus, der nach einem derartigen Verfahren trainiert wurde. Die Erfindung betrifft auch ein Kraftfahrzeug mit einem solchen Kamerasystem.
  • Mustererkennungsalgorithmen sind bereits aus dem Stand der Technik in vielfältiger Ausgestaltung bekannt. Solche Mustererkennungsalgorithmen dienen zum Erkennen von vorbestimmten Mustern in Bildern sowie zur Klassifizierung der erkannten Muster. Solche Algorithmen werden auch in Kamerasystemen von Kraftfahrzeugen eingesetzt und dienen dann insbesondere zur Detektion von Zielobjekten, wie beispielsweise von anderen Fahrzeugen, Fußgängern und anderen potentiellen Hindernissen. Wird ein solches Zielobjekt detektiert, so kann dieses Objekt dann mittels des Kamerasystems verfolgt werden. Das Kamerasystem kann als Kollisionswarnungssystem dienen, mittels welchem der Fahrer des Kraftfahrzeugs vor einer möglichen Kollision mit einem Zielobjekt gewarnt wird.
  • Allen Mustererkennungsalgorithmen ist gemein, dass sie hinsichtlich der Muster, welche erkannt werden sollen, trainiert bzw. gelernt werden müssen, bevor der Algorithmus dann letztendlich auf das Kamerasystem überspielt wird. Beim Trainieren eines Mustererkennungsalgorithmus wird üblicherweise eine Testdatenbank bereitgestellt, welche Testbilddaten beinhaltet, d. h. eine sehr große Anzahl von Bildern. Diese Testbilddaten beinhalten eine Gesamtmenge von Mustern, welche dem Algorithmus „mitgeteilt” werden sollen und welche dann dem Training zugrunde gelegt werden. Diese Muster sollen also von dem Algorithmus „gelernt” werden. Ein bereits trainierter Algorithmus ist dann in der Lage, die gelernten Muster sowie Muster, die zwar von den gelernten Mustern abweichen, jedoch eine gewisse Ähnlichkeit aufweisen, in beliebigen Bildern wieder zu erkennen. Wird ein Mustererkennungsalgorithmus also hinsichtlich einer Vielzahl von Mustern trainiert, so können dann nicht nur diese gelernten Muster, sondern auch Muster detektiert werden, die in einem Toleranzbereich der gelernten Muster liegen.
  • Die gelernten Muster werden üblicherweise jeweils einem Zielobjekt zugeordnet, sodass eine Klassifizierung der Muster vorgenommen werden kann. Jedem Zielobjekt bzw. jeder Objektart (Fahrzeug, Fußgänger, etc.) können dabei mehrere Muster zugeordnet sein. Wird dann im Betrieb des Kamerasystems ein Muster detektiert, welches einem bestimmten Zielobjekt zugeordnet ist, so kann der Mustererkennungsalgorithmus nicht nur das Muster erkennen, sondern auch mit einer Bezeichnung versehen, d. h. feststellen, zu welchem Zielobjekt dieses Muster gehört (Klassifizierung).
  • Im Stand der Technik werden üblicherweise sowohl positive als auch negative Muster definiert. Positive Muster sind diejenigen Muster, welche durch den Algorithmus erkannt und ausgegeben werden sollen, weil diese positiven Muster Zielobjekten zugeordnet sind, die im Betrieb des Kamerasystems detektiert werden sollen. Demgegenüber sind negative Muster diejenigen Muster, welche durch den Algorithmus nicht erkannt werden dürfen bzw. herausgefiltert werden sollen. Diese negativen Muster sind nämlich Zielobjekten zugeordnet, welche für ein Kamerasystem eines Kraftfahrzeugs irrelevant sind und somit nicht detektiert werden müssen.
  • Das Trainieren eines Mustererkennungsalgorithmus ist im Stand der Technik mit einem erheblichen Aufwand verbunden: Wie bereits ausgeführt, wird im Stand der Technik eine sehr große Datenbank mit Testbilddaten bereitgestellt, welche eine große Anzahl von Mustern beinhalten. Im Stand der Technik wird diese gesamte Datenbank manuell durchsucht, und alle benötigten Muster werden manuell (zum Beispiel am PC) ausgewählt und einem bestimmten Zielobjekt zugeordnet und entsprechend bezeichnet. Zu diesem Zwecke wird jedes Einzelbild eines nach dem anderen manuell analysiert. Dann werden die Muster in positive und negative Muster aufgeteilt. Der Algorithmus wird dann basierend auf allen Mustern trainiert. Zum Trainieren des Algorithmus können dabei bekannte Lernmethoden verwendet werden.
  • Eine solche Vorgehensweise erfordert einen erheblichen Zeitaufwand. Ein entsprechendes Personal muss nämlich alle Muster korrekt extrahieren und bezeichnen bzw. festlegen, zu welchem Zielobjekt die jeweiligen Muster gehören. Die gesamte Testdatenbank muss also durch das Personal durchsucht werden. Dies stellt eine extrem mühsame und methodische Aufgabe dar und kann daher – auch bei besten Intentionen – zu Fehlern führen. Solche Fehler bei der Mustererkennung können insbesondere in Kraftfahrzeugen nicht toleriert werden.
  • Nachdem die Auswahl und die Bezeichnung aller Muster vollendet wurden, besteht im Stand der Technik auch keine Garantie dafür, dass die Qualität der ausgewählten Muster optimal für das Training des Algorithmus ist. Es muss daher häufig eine manuelle Filterung der Muster vorgenommen werden. Diese Filterung bedeutet lediglich, dass prima fade fehlerhafte Muster, d. h. diejenigen Muster, welche früher manuell falsch bezeichnet wurden, verworfen oder korrigiert werden. Dies stellt eine weitere mühsame Aufgabe dar und kann in keiner Weise garantieren, dass die ausgewählten Muster, welche dem Training des Algorithmus zugrunde gelegt werden, eine ausreichende Diversität aufweisen, um den Algorithmus dahingehend zu trainieren, dass er auch ähnliche Muster detektieren kann. Die Diversität der Muster stellt also insgesamt einen sehr wichtigen Parameter beim Trainieren eines Mustererkennungsalgorithmus dar, weil in der Natur häufig auch sehr ähnliche Muster auftreten, die durch den Algorithmus erkannt werden sollen. Ein weiterer Nachteil besteht darin, dass aufgrund der Vielzahl von Trainingsmustern auch das Trainieren des Algorithmus alleine relativ viel Zeit in Anspruch nimmt. Diese Zeit ist nämlich proportional zu der Anzahl der Trainingsmuster. In manchen Fällen kann das Training sogar mehrere Wochen in Anspruch nehmen.
  • Eine Aufgabe der Erfindung besteht darin, ein Verfahren bereitzustellen, mit welchem ein Mustererkennungsalgorithmus einerseits besonders präzise und andererseits ohne viel Aufwand trainiert werden kann. Eine weitere Aufgabe besteht darin, ein Kamerasystem sowie ein Kraftfahrzeug bereitzustellen.
  • Diese Aufgaben werden durch ein Verfahren, durch ein Kamerasystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche, der Beschreibung und der Figuren.
  • Ein erfindungsgemäßes Verfahren dient zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, welche mittels einer Kamera eines Kraftfahrzeugs bereitgestellt werden. Unter dem Begriff „Trainieren” wird vorliegend ein Lernvorgang verstanden, bei welchem dem Algorithmus vorbestimmte Muster „mitgeteilt” werden, welche der Algorithmus dann im Betrieb des Kamerasystems erkennen soll, wobei auch ähnliche Muster, die in einem Toleranzbereich liegen, durch den Algorithmus erkannt werden sollen.
  • Gemäß Schritt a) wird eine Testdatenbank mit Testbilddaten zum Trainieren des Algorithmus bereitgestellt, wobei die Testbilddaten eine Gesamtmenge von Mustern beinhalten. Diese Testbilddaten können beispielsweise eine Vielzahl von Testbildern beinhalten, die zum Beispiel mittels einer Kamera aufgenommen wurden. Die Testbilddaten können also mittels einer Kamera erfasst werden.
  • Gemäß Schritt b) wird aus der Gesamtmenge der Muster (insbesondere manuell, zum Beispiel an einem PC) eine exemplarische Untermenge von Mustern ausgewählt, welche repräsentativ für vorbestimmte Objekte sind. Es wird vorzugsweise lediglich eine kleine Untermenge von Standardmustern ausgewählt, und zwar vorzugsweise mit einer maximal möglichen Diversität, wie dies manuell noch möglich ist. Die Auswahl der Untermenge von Mustern kann abhängig von der konkreten Anwendung vorgenommen werden.
  • Gemäß Schritt c) wird dann ein erstes Trainieren des Algorithmus anhand der ausgewählten Untermenge der Muster durchgeführt, sodass ein vorläufig trainierter Algorithmus bereitgestellt wird.
  • Gemäß Schritt d) wird dieser vorläufig trainierte Algorithmus auf die gesamte Testdatenbank angewendet. Als Ergebnis gibt der vorläufig trainierte Algorithmus eine Ergebnisliste von Einträgen aus, die jeweils ein durch den vorläufig trainierten Algorithmus erkanntes Muster sowie eine Bezeichnung eines diesem Muster zugeordneten Objekts angeben.
  • Gemäß Schritt e) wird die Ergebnisliste (manuell oder maschinell) analysiert, und es werden Einträge aus der Ergebnisliste verworfen, bei welchen die Zuordnung des erkannten Musters zu dem Objekt durch den vorläufig trainierten Algorithmus korrekt vorgenommen wurde. Mit anderen Worten werden die korrekten Einträge aus der Ergebnisliste entfernt, da diese Einträge keine brauchbaren Informationen über die möglichen Fehlerquellen des vorläufig trainierten Algorithmus beinhalten und somit nicht zur weiteren Verbesserung des Algorithmus beitragen.
  • Gemäß Schritt f) wird dann ein zweites Trainieren des vorläufig trainierten Algorithmus anhand der verbleibenden Einträge der Ergebnisliste vorgenommen.
  • Im Vergleich zum Stand der Technik kann der Mustererkennungsalgorithmus somit mit erheblich reduziertem Aufwand trainiert werden, weil nicht die Gesamtmenge der Muster aus den Testbilddaten manuell extrahiert und beschriftet werden müssen, sondern lediglich eine Untermenge von Mustern, welche repräsentativ für vorbestimmte Zielobjekte sind. Diese Untermenge von Mustern kann beispielsweise lediglich weniger als 20%, insbesondere weniger als 10%, der Gesamtmenge der Muster umfassen. Der Mustererkennungsalgorithmus kann dann anhand dieser ausgewählten Untermenge der Muster trainiert werden, sodass der Algorithmus dazu gelehrt wird, diese Untermenge von Mustern sowie ähnliche Muster zu erkennen und entsprechend zu klassifizieren. Weil die Diversität und somit die Verschiedenheit der Muster innerhalb der ausgewählten Untermenge sehr hoch ist, ist der vorläufig trainierte Algorithmus auch dazu in der Lage, eine Vielzahl von anderen ähnlichen Mustern zu identifizieren. Die oben genannte Ergebnisliste kann daher ohne viel Aufwand analysiert werden, nachdem alle korrekten Einträge aus der Ergebnisliste entfernt wurden.
  • Die Ergebnisliste des vorläufig trainierten Algorithmus beinhaltet vorzugsweise folgende Arten von Einträgen:
    • – korrekte Einträge, bei denen die positiven Muster korrekt erkannt wurden und die Zuordnung des erkannten Musters zu dem Objekt auch korrekt vorgenommen wurde – diese Einträge werden aus der Ergebnisliste entfernt, weil sie nicht zur Verbesserung des Algorithmus beitragen; und/oder
    • – fehlerhafte Einträge, bei denen das erkannte Muster zu einem falschen Objekt durch den vorläufig trainierten Algorithmus zugeordnet wurde – diese Einträge können dann dem zweiten Training zugrunde gelegt werden, um den Algorithmus auch hinsichtlich dieser Muster zu trainieren; und/oder
    • – fehlerhafte Einträge, bei denen ein Muster erkannt wurde, welches durch den vorläufig trainierten Algorithmus nicht hätte erkannt werden dürfen – diese falschen Detektionen können im Rahmen des zweiten Trainings beispielsweise in eine negative Datenbank des Algorithmus aufgenommen werden, sodass die Detektion dieser Muster zukünftig verhindert werden kann.
  • Optional kann anhand der Ergebnisliste auch überprüft werden, ob Muster der Gesamtmenge durch den vorläufig trainierten Algorithmus nicht erkannt wurden, die jedoch durch den Algorithmus hätten erkannt werden müssen. Dann kann ein drittes Training des Algorithmus anhand der nicht erkannten Muster durchgeführt werden. Dies verbessert weiterhin den Algorithmus.
  • Optional kann auch vorgesehen sein, dass die oben genannten Schritte d) bis f) so lange wiederholt werden, bis zumindest ein vorgegebener Prozentsatz der Gesamtmenge der Muster durch den Algorithmus korrekt erkannt wurde. Auf diese Art und Weise kann ein besonders präziser und zuverlässiger Mustererkennungsalgorithmus bereitgestellt werden.
  • Die Erfindung betrifft außerdem ein Kamerasystem für ein Kraftfahrzeug, umfassend eine Kamera zum Bereitstellen von Bildern eines Umgebungsbereichs des Kraftfahrzeugs, und umfassend eine elektronische Bildverarbeitungseinrichtung mit einem Algorithmus, welcher nach einem erfindungsgemäßen Verfahren trainiert wurde.
  • Ein erfindungsgemäßes Kraftfahrzeug, insbesondere ein Personenkraftwagen, beinhaltet ein erfindungsgemäßes Kamerasystem.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Alle vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder aber in Alleinstellung verwendbar.
  • Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 in schematischer Darstellung ein Kraftfahrzeug mit einem Kamerasystem gemäß einer Ausführungsform der Erfindung; und
  • 2 ein Flussdiagramm eines Verfahrens gemäß einer Ausführungsform der Erfindung.
  • Ein in 1 dargestelltes Kraftfahrzeug 1 ist beispielsweise ein Personenkraftwagen. Das Kraftfahrzeug 1 hat ein Kamerasystem 2 mit beispielsweise vier Kameras 3, 4, 5, 6, welche an dem Kraftfahrzeug 1 verteilt angeordnet sind. Die Kameras 3, 4, 5, 6 erfassen beispielsweise insgesamt die Umgebung um das Kraftfahrzeug 1 herum. Es kann zum Beispiel die komplette Umgebung des Kraftfahrzeugs 1 und daher ein 360°-Bild erfasst werden.
  • Die Kamera 3 ist eine Frontkamera, welche im vorderen Bereich des Kraftfahrzeugs 1, beispielsweise an einem vorderen Stoßfänger 7, angeordnet ist. Die Kamera 3 ist somit an einer Front des Kraftfahrzeugs 1 angeordnet. Die zweite Kamera 4 ist beispielsweise eine Rückwärtskamera, welche im Heckbereich angeordnet ist, beispielsweise an einem hinteren Stoßfänger 8 oder einer Heckklappe. Die seitlichen Kameras 5, 6 können in die jeweiligen Außenspiegel integriert sein.
  • Die erste Kamera 3 erfasst einen Umgebungsbereich 9 vor dem Kraftfahrzeug 1. Entsprechend erfasst die Kamera 4 einen Umgebungsbereich 10 hinter dem Kraftfahrzeug 1. Die seitlichen Kameras 5, 6 erfassen jeweils einen Umgebungsbereich 11 respektive 12 seitlich neben dem Kraftfahrzeug 1. Die Kameras 3, 4, 5, 6 können beispielsweise so genannte Fischaugenkameras sein, welche einen relativ breiten Öffnungswinkel aufweisen, der beispielsweise in einem Wertebereich von 160° bis 200° liegen kann. Die Kameras 3, 4, 5, 6 können CCD-Kameras oder CMOS-Kameras sein. Sie können auch Video-Kameras sein, welche jeweils eine Vielzahl von Einzelbildern pro Sekunde bereitstellen können. Diese Bilder werden an eine zentrale elektronische Bildverarbeitungseinrichtung 13 übermittelt, welche die Bilder aller Kameras 3, 4, 5, 6 verarbeitet.
  • Die Bildverarbeitungseinrichtung 13 kann optional mit einer optischen Anzeigeeinrichtung 14 gekoppelt sein, welche beispielsweise ein LCD-Display ist. Auf dem Display 14 können dann verschiedenste Ansichten dargestellt werden, welche je nach Fahrsituation ausgewählt werden können. Beispielsweise kann die Bildverarbeitungseinrichtung 13 aus den Bildern aller Kameras 3, 4, 5, 6 eine Gesamtdarstellung erzeugen, welche das Kraftfahrzeug 1 und seine Umgebung 9, 10, 11, 12 aus einer Vogelperspektive und somit von einem Blickpunkt aus zeigt, der sich über dem Kraftfahrzeug 1 befindet. Ein solches „Bird Eye View” ist bereits Stand der Technik und kann durch Bildverarbeitung erzeugt werden.
  • Die Bildverarbeitungseinrichtung 13 kann auch Objekte 15 identifizieren, die sich in der Umgebung 9, 10, 11, 12 des Kraftfahrzeugs 1 befinden. Im Ausführungsbeispiel gemäß 1 ist als Objekt ein Fußgänger 15 gezeigt, welcher mittels der Bildverarbeitungseinrichtung 13 in den Bildern identifiziert wird und dann beispielsweise als Hindernis dem Fahrer angezeigt wird. Um das Zielobjekt 15 zu detektieren, können so genannte charakteristische Merkmale aus den Bildern extrahiert werden, wie beispielsweise Harris-Punkte und/oder FAST-Merkmale und/oder Kanten und/oder Ecken. Diese charakteristischen Merkmale werden dann einer Mustererkennung unterzogen.
  • In einem Speicher 16 der Bildverarbeitungseinrichtung 13 ist ein Algorithmus abgelegt, welcher zur Erkennung von vorbestimmten Mustern in den Bildern ausgelegt ist. Bevor dieser Algorithmus jedoch auf die Bildverarbeitungseinrichtung 13 überspielt und in dem Speicher 16 abgelegt wurde, musste der Algorithmus hinsichtlich der Muster, die im Betrieb des Kamerasystems 2 erkannt werden sollen, trainiert werden. Ein solches Verfahren, welches zum Trainieren eines derartigen Algorithmus dient, wird nachfolgend unter Bezugnahme auf 2 näher erläutert:
    In einem ersten Schritt S1 des Verfahrens wird eine Testdatenbank 17 bereitgestellt, welche Testbilddaten beinhaltet. Diese Testbilddaten werden beispielsweise mittels einer Kamera erfasst. Die Testbilddaten enthalten eine Gesamtmenge G von Mustern, für welche der Algorithmus trainiert werden soll. In den Testbilddaten können also vorbestimmte Objektarten (Fußgänger, Fahrzeuge und dergleichen) jeweils mit einer Vielzahl von Beispielen und aus unterschiedlichen Perspektiven abgebildet sein. Die Gesamtmenge G von Mustern kann somit für jede Objektart jeweils eine Vielzahl von möglichen Mustern beinhalten.
  • In einem weiteren Schritt S2 wird aus der Gesamtmenge G eine exemplarische Untermenge S von Mustern ausgewählt, welche repräsentativ für vorbestimmte Objektarten sind. Beispielsweise können dabei mehrere Muster für einen Fußgänger und/oder mehrere Muster für ein Fahrzeug ausgewählt werden. Die Untermenge S wird so ausgewählt, dass die Muster möglichst unterschiedlich sind und somit eine möglichst maximale Diversität aufweisen, wie dies noch manuell möglich ist. Es werden somit bevorzugt solche Muster für eine bestimmte Objektart ausgewählt, die sich zumindest um ein vorgegebenes Maß voneinander unterscheiden.
  • In einem weiteren Schritt S3 wird der Algorithmus mit der ausgewählten Untermenge S gelernt. In diesem Schritt S3 können Lernalgorithmen verwendet werden, wie sie bereits aus dem Stand der Technik bekannt sind. Hierbei wird die Untermenge S der Muster dem in 2 mit 18 bezeichneten Algorithmus beigebracht bzw. „mitgeteilt”, wie dies in 2 schematisch angedeutet ist.
  • In einem weiteren Schritt S4 wird dann der vorläufig trainierte Algorithmus 18 auf die gesamte Testdatenbank 17 angewendet. Dies bedeutet, dass dem vorläufig trainierten Algorithmus 18 die gesamte Testdatenbank 17 und somit alle Testbilddaten zugrunde gelegt werden. Als Ergebnis dieser Bildverarbeitung wird durch den Algorithmus 18 eine Ergebnisliste 19 ausgegeben, welche Einträge beinhaltet, die jeweils ein detektiertes Muster und eine Klassifizierung des Musters (das zugeordnete Objekt) angeben.
  • In einem weiteren Schritt S5 werden die Einträge der Ergebnisliste 19 in folgende Gruppen sortiert:
    • – korrekte Einträge, bei denen das Muster korrekt erkannt und klassifiziert wurde;
    • – fehlerhafte Einträge, bei denen das erkannte Muster zu einem falschen Objekt zugeordnet wurde;
    • – fehlerhafte Einträge, bei denen ein Muster erkannt wurde, welches nicht hätte erkannt werden dürfen.
  • Die korrekten Einträge werden gemäß Schritt S5 aus der Ergebnisliste 19 entfernt, und die fehlerhaften Einträge werden dann in einem weiteren Schritt S6 einem zweiten Training des Algorithmus 18 zugrunde gelegt. Gemäß Schritt S6 erfolgt also ein zweites Training, bei welchem ebenfalls die aus dem Stand der Technik bekannten Lernalgorithmen bzw. Lernmethoden genutzt werden können. Diesem zweiten Training werden jedoch ausschließlich die fehlerhaften Einträge aus der Ergebnisliste 19 zugrunde gelegt.
  • In einem noch weiteren Schritt S7 kann dann überprüft werden, welche Muster aus der Gesamtmenge G durch den vorläufig trainierten Algorithmus 18 gemäß Schritt S4 nicht erkannt wurden. Diese nicht detektierten Muster können dann gemäß Schritt S7 einem dritten Training zugrunde gelegt werden.
  • Wie aus 2 hervorgeht, können optional zumindest die Schritte S4 bis S7 wiederholt werden. Dies kann so lange durchgeführt werden, bis ein vorbestimmter Prozentsatz (zum Beispiel 80% oder 90% oder 95% oder 99%) der Gesamtmenge G der Muster durch den Algorithmus 18 korrekt erkannt wurde.

Claims (7)

  1. Verfahren zum Trainieren eines Algorithmus (18) zum Erkennen von vorbestimmten Mustern in Bilddaten, welche mittels einer Kamera (3, 4, 5, 6) eines Kraftfahrzeugs (1) bereitgestellt werden, mit den Schritten: a) Bereitstellen (S1) einer Testdatenbank (17) mit Testbilddaten zum Trainieren des Algorithmus (18), wobei die Testbilddaten eine Gesamtmenge (G) von Mustern beinhalten, b) aus der Gesamtmenge (G) der Muster Auswählen (S2) einer exemplarischen Untermenge (S) von Mustern, welche repräsentativ für vorbestimmte Objekte (15) sind, c) erstes Trainieren (S3) des Algorithmus (18) anhand der ausgewählten Untermenge (S) der Muster und hierbei Bereitstellen eines vorläufig trainierten Algorithmus (18), d) Anwenden (S4) des vorläufig trainierten Algorithmus (18) auf die gesamte Testdatenbank (17) und hierbei Bereitstellen einer Ergebnisliste (19) von Einträgen, welche jeweils ein durch den vorläufig trainierten Algorithmus (18) erkanntes Muster und ein diesem Muster zugeordnetes Objekt (15) angeben, e) Verwerfen (S5) von Einträgen aus der Ergebnisliste (19), bei welchen die Zuordnung des erkannten Musters zu dem Objekt (15) durch den vorläufig trainierten Algorithmus (18) korrekt vorgenommen wurde, und f) zweites Trainieren (S6) des vorläufig trainierten Algorithmus (18) anhand der verbleibenden Einträge.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass fehlerhafte Einträge in der Ergebnisliste (19) detektiert werden, bei welchen das erkannte Muster zu einem falschen Objekt (15) durch den vorläufig trainierten Algorithmus (18) zugeordnet wurde, und das zweite Trainieren anhand dieser fehlerhaften Einträge durchgeführt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass diejenigen Einträge in der Ergebnisliste (19) detektiert werden, bei welchen ein Muster erkannt wurde, welches durch den vorläufig trainierten Algorithmus (18) nicht hätte erkannt werden dürfen.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass überprüft wird (S7), welche Muster der Gesamtmenge (G) durch den vorläufig trainierten Algorithmus (18) nicht erkannt wurden, wobei ein drittes Trainieren des Algorithmus (18) anhand der nicht erkannten Muster durchgeführt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zumindest die Schritte d) bis f) so lange wiederholt werden, bis zumindest ein vorgegebener Prozentsatz der Gesamtmenge (G) der Muster durch den Algorithmus (18) korrekt erkannt wurde.
  6. Kamerasystem (2) für ein Kraftfahrzeug (1), umfassend eine Kamera (3, 4, 5, 6) zum Bereitstellen von Bildern eines Umgebungsbereichs (9, 10, 11, 12) des Kraftfahrzeugs (1), und umfassend eine Bildverarbeitungseinrichtung (13) mit einem Algorithmus (18), welcher nach einem Verfahren nach einem der Ansprüche 1 bis 5 trainiert wurde.
  7. Kraftfahrzeug (1) mit einem Kamerasystem (2) nach Anspruch 6.
DE102013012781.5A 2013-07-31 2013-07-31 Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug Pending DE102013012781A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102013012781.5A DE102013012781A1 (de) 2013-07-31 2013-07-31 Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug
PCT/EP2014/066335 WO2015014873A1 (en) 2013-07-31 2014-07-30 Method for training an algorithm for recognizing predetermined patterns in image data, camera system and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013012781.5A DE102013012781A1 (de) 2013-07-31 2013-07-31 Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102013012781A1 true DE102013012781A1 (de) 2015-02-05

Family

ID=51266309

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013012781.5A Pending DE102013012781A1 (de) 2013-07-31 2013-07-31 Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug

Country Status (2)

Country Link
DE (1) DE102013012781A1 (de)
WO (1) WO2015014873A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016008218A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten Erkennen von Objekten durch ein Fahrerassistenzsystem

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7724962B2 (en) * 2006-07-07 2010-05-25 Siemens Corporation Context adaptive approach in vehicle detection under various visibility conditions

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016008218A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten Erkennen von Objekten durch ein Fahrerassistenzsystem
WO2018007171A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten erkennen von objekten durch ein fahrerassistenzsystem
CN109415057A (zh) * 2016-07-06 2019-03-01 奥迪股份公司 用于通过驾驶员辅助系统更好的识别对象的方法
US10913455B2 (en) 2016-07-06 2021-02-09 Audi Ag Method for the improved detection of objects by a driver assistance system

Also Published As

Publication number Publication date
WO2015014873A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
DE102018130821A1 (de) Verfahren zum Beurteilen einer Umgebung eines Kraftfahrzeugs durch ein künstliches neuronales Netz mit einer Aggregationseinheit; Steuereinheit, Fahrerassistenzsystem sowie Computerprogrammprodukt
DE102011053052B3 (de) Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
DE102013008451B4 (de) Fahrzeugeinparksteuerungssystem und Fahrzeugeinparksteuerungsverfahren, das dieses verwendet
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE102017107264A1 (de) Sichtbasierte regenerkennung unter verwendung des tiefen lernens
DE102013019138A1 (de) Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE102015216908A1 (de) Verfahren zum Erkennen von Objekten auf einer Abstellfläche
DE102017208718A1 (de) Verfahren zur Erkennung von Objekten in einem Bild einer Kamera
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102016218277A1 (de) Verfahren zur Funktionsprüfung eines Fahrassistenzsystems sowie Kontrolleinheit und Referenzeinrichtung für ein Fahrassistenzsystem
DE102011107458A1 (de) Verfahren zum Evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
DE102012015282B4 (de) Verfahren zur Detektion eines verdeckten Zustands einer Bilderfassungseinrichtung eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102008026876A1 (de) Stereokamerasystem und Verfahren zum Ermitteln mindestens eines Kalibrierfehlers eines Stereokamerasystems
DE102013012778A1 (de) Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug
DE102018205146B4 (de) Testverfahren für hochauflösende Scheinwerfer mittels KI
DE102019129029A1 (de) System und verfahren zur objektdetektion
DE102019102672A1 (de) Intersensorisches lernen
DE102016118335A1 (de) Verfahren zum Erkennen einer Verschmutzung auf einer Linse einer Kamera eines Kraftfahrzeugs anhand von Helligkeitswerten in Bildern, Kamera sowie Kraftfahrzeug
DE102018207923A1 (de) Verbessertes Training eines Klassifikators
DE102018132627A1 (de) Verfahren zum Erfassen einer Umgebung eines Kraftfahrzeugs mittels zeitlicher Fusion von Bildern durch ein künstliches neuronales Netz; Steuereinheit, Fahrerassistenzsystem; Computerprogrammprodukt
DE102013012781A1 (de) Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug
DE102021101593B3 (de) Verfahren zum Betrieb von Umfeldsensoren in einem Kraftfahrzeug und Kraftfahrzeug
EP3659113A1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
DE102013218299A1 (de) Verfahren zum Detektieren eines Schadens eines Fahrzeugs anhand eines Prüfbilds, entsprechendes System und Computerprogrammprodukt
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000