DE102016226204A1 - Erfassungssystem für ein zielobjekt und ein verfahren zur erfassung eines zielobjekts - Google Patents

Erfassungssystem für ein zielobjekt und ein verfahren zur erfassung eines zielobjekts Download PDF

Info

Publication number
DE102016226204A1
DE102016226204A1 DE102016226204.1A DE102016226204A DE102016226204A1 DE 102016226204 A1 DE102016226204 A1 DE 102016226204A1 DE 102016226204 A DE102016226204 A DE 102016226204A DE 102016226204 A1 DE102016226204 A1 DE 102016226204A1
Authority
DE
Germany
Prior art keywords
image
parameters
vehicle
signal
weak classifiers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016226204.1A
Other languages
English (en)
Other versions
DE102016226204B4 (de
Inventor
Kuo-Ching Chang
Chuan-Ren Li
Han-Wen Huang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Automotive Research and Testing Center
Original Assignee
Automotive Research and Testing Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Automotive Research and Testing Center filed Critical Automotive Research and Testing Center
Publication of DE102016226204A1 publication Critical patent/DE102016226204A1/de
Application granted granted Critical
Publication of DE102016226204B4 publication Critical patent/DE102016226204B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Erfassungssystem für Zielobjekte umfasst eine Erfassungseinheit (2) und eine maschinelle Lerneinheit (3). Die Erfassungseinheit (2) erhält ein Bild und gibt bei Feststellung, dass ein Bereich des Bildes einem Zielobjekt ähnlich ist, indem sie eine Klassifizierungsoperation durchführt, ein Benachrichtigungssignal aus. Die maschinelle Lerneinheit (3) führt unter Verwendung des Bildes eine Trainingsoperation durch, um neue Parameter für schwache Klassifikatoren zu erhalten, die zur Aktualisierung in der Erfassungseinheit (2) genutzt werden, wenn unter Verwendung der Parameter für schwache Klassifikatoren, die in der Klassifizierungsoperation der Erfassungseinheit (2) verwendet wurden, eine Feststellung getroffen wurde, die sich von einer solchen unterscheidet, die unter Verwendung von Parametern für starke Klassifikatoren getroffen wurde.

Description

  • Die vorliegende Erfindung bezieht sich auf ein Erfassungssystem und ein Erfassungsverfahren, insbesondere auf ein Erfassungssystem für ein Zielobjekt, das in der Lage ist einen adaptiven Lernvorgang durchzuführen, und auf ein Verfahren zum Erfassen eines Zielobjekts und zum Durchführen eines adaptiven Lernvorgangs.
  • Gegenwärtige Advanced Driver Assistance Systeme (ADAS) haben eine weitgehend angeeignete künstliche Intelligenz, um die Zahl von Verkehrsunfällen zu verringern, wobei viele Firmen in der Industrie ihre Forschung und Entwicklung auf Technologien richten, wie Fahrspur-Erfassungssysteme, Systeme zur Einparkhilfe, Systeme zur Kollisionsvermeidung usw.
  • Die Bilderkennung ist eine der wichtigsten Techniken in den vorerwähnten Systemen. Die Bilderkennungstechnik richtet sich meistens auf ein Trainieren von Parametern eines Klassifikators aufgrund eines Algorithmus, der einem maschinellen Lernvorgang für eine Klassifizierung zugeordnet ist, um so Objekte in einem Bild zu erkennen. Jedoch ist aufgrund der eingeschränkten Leistungsfähigkeit eines in einem Fahrzeug bereitgehaltenen, eingebetteten Systems (embedded system) auch die Leistungsfähigkeit eine Klassifikators des eingebetteten Systems begrenzt. Wie die falsche Positivrate in einer diversifizierten Straßenumgebung, bei gleichzeitiger Berücksichtigung der eingeschränkten Leistungsfähigkeit eines eingebetteten Systems in einem Fahrzeug, effektiv zu reduzieren ist, ist daher ein Kernpunkt in gegenwärtigen Forschungs- und Entwicklungsprojekten.
  • Deshalb ist eine Aufgabe der vorliegenden Erfindung, ein Erfassungssystem für ein Zielobjekt und ein Verfahren für eine Zielobjekterfassung bereitzustellen.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung umfasst ein Erfassungssystem für ein Zielobjekt eine Erfassungseinheit und eine maschinelle Lerneinheit.
  • Die Erfassungseinheit ist so ausgebildet, dass diese ein Bild erhält, eine mit der Klassifizierung verbundene Operation unter Verwendung von Parametern für schwache Klassifikatoren durchführt, um so zu festzustellen, ob ein Bereich des Bildes einem Zielobjekt ähnlich ist, und das Bild ausgibt. Die Erfassungseinheit ist ferner so ausgebildet, dass diese ein Benachrichtigungssignal ausgibt, wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist. Die maschinelle Lerneinheit ist mit der Erfassungseinheit für den Empfang des Bildes kommunikationsfähig gekoppelt und ist so ausgebildet, dass diese mit der Klassifizierung verbundene Operationen unter Verwendung der Parameter für schwache Klassifikatoren bzw. Parameter für starke Klassifikatoren durchführt, um so jeweils zwei Feststellungen dahingehend zu treffen, ob der Bereich des Bildes dem Zielobjekt ähnlich ist. Wenn die Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, ist die maschinelle Lerneinheit ferner so ausgebildet, dass diese unter Verwendung des Bildes eine Trainingsoperation durchführt, um so neue Parameter für schwache Klassifikatoren zu erhalten, welche dazu genutzt werden, die Parameter für schwache Klassifikatoren der Erfassungseinheit und der maschinellen Lerneinheit zu aktualisieren.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung soll ein Verfahren zur Zielobjekterfassung in ein Erfassungssystem für ein Zielobjekt implementiert werden, das eine Erfassungseinheit und eine maschinelle Lerneinheit umfasst. Das Verfahren umfasst die folgenden Schritte:
    Durchführen einer mit der Klassifizierung unter Verwendung von Parametern für schwache Klassifikatoren verbundenen Operation nach dem Erhalten eines Bildes durch die Erfassungseinheit, um so festzustellen, ob ein Bereich des Bildes einem Zielobjekt ähnlich ist;
    Ausgeben eines Benachrichtigungssignals durch die Erfassungseinheit, wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist;
    Ausgeben des Bildes durch die Erfassungseinheit an die maschinelle Lerneinheit;
    Durchführen von mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. Parameter für starke Klassifikatoren verbundenen Operationen durch die maschinelle Lerneinheit nach dem Empfang des Bildes, um so jeweils zwei Feststellungen dahingehend zu treffen, ob der Bereich des Bildes dem Zielobjekt ähnlich ist; und
    wenn Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, Durchführen einer Trainingsoperation durch die maschinelle Lerneinheit unter Verwendung des Bildes, um so neue Parameter für schwache Klassifikatoren zu erhalten, welche dazu genutzt werden, die Parameter für schwache Klassifikatoren der Erfassungseinheit und der maschinelle Lerneinheit zu aktualisieren.
  • Ein Effekt der vorliegenden Erfindung beruht darin, dass durch die Erfassungseinheit Echtzeit-Operationen am Bild durchgeführt werden können, und das Bild durch die maschinelle Lerneinheit für eine nachfolgende Trainingsoperation zum adaptiven Lernen genutzt wird. Da in keiner Ausführungsform dieser Erfindung eine zusätzliche Feststellung mittels einer Klassifizierung durch Arbeit oder Kennzeichnung erforderlich ist, kann eine große Anzahl von Lernproben zur Verbesserung der Leistungsfähigkeit des Erfassungssystems für ein Zielobjekt schnell gesammelt werden, wodurch die Fahrsicherheit erhöht wird.
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung werden in der folgenden detaillierten Beschreibung von Ausführungsformen mit Bezug auf die beigefügten Zeichnungen deutlich, in welchen:
  • 1 ein Blockdiagramm ist, welches eine erste Ausführungsform eines Erfassungssystems für ein Zielobjekt gemäß der vorliegenden Erfindung darstellt;
  • 2 ein schematisches Diagramm ist, welches eine Ausführungsform darstellt, bei der eine Erfassungseinheit auf einem Fahrzeug angeordnet ist, während eine maschinelle Lerneinheit mit der Erfassungseinheit kommunikationsfähig gekoppelt ist;
  • 3 ein schematisches Diagramm ist, welches eine Ausführungsform eines starken Klassifikators darstellt, wobei dessen frühere M-Stufen einen schwachen Klassifikator bilden;
  • 4 ein Blockdiagramm ist, welches eine zweite Ausführungsform des Erfassungssystems für ein Zielobjekt gemäß der vorliegenden Erfindung darstellt;
  • 5 ein schematisches Diagramm ist, welches eine Ausführungsform darstellt, bei der die Erfassungseinheit und die maschinelle Lerneinheit beide auf dem Fahrzeug angeordnet sind; und
  • 6 ein Flussdiagramm ist, welches eine Ausführungsform eines Verfahrens für eine Zielobjekterfassung gemäß der vorliegenden Erfindung darstellt.
  • Bevor die vorliegende Erfindung in größeren Einzelheiten beschrieben wird, sei angemerkt, dass Bezugszeichen oder Endstellen von Bezugszeichen in den Figuren wiederholt werden, wenn dies als geeignet angesehen wird, um auf entsprechende oder analoge Elemente hinzuweisen, welche optional ähnliche Eigenschaften haben können.
  • Mit Bezug auf 1 und 2 umfasst eine erste Ausführungsform eines Erfassungssystems für ein Zielobjekt gemäß der vorliegenden Erfindung eine Erfassungseinheit 2 und eine maschinelle Lerneinheit 3.
  • Die Erfassungseinheit 2 ist so ausgelegt, dass diese auf einem Fahrzeug 9 (siehe 2) angeordnet werden kann, ist so ausgebildet, dass diese ein Bild erhalten kann, um eine mit der Klassifizierung unter Verwendung von Parametern für schwache Klassifikatoren verbundene Operation durchzuführen, derart, dass festgestellt wird, ob ein Bereich des Bildes einem Zielobjekt ähnlich ist, und dass diese das Bild ausgibt. Die Erfassungseinheit 2 ist ferner so ausgebildet, dass diese ein Benachrichtigungssignal ausgibt, wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist, und dass diese die Parameter für schwache Klassifikatoren in Abhängigkeit vom Empfang neuer Parameter für schwache Klassifikatoren aktualisiert. Die Erfassungseinheit 2 ist ferner so ausgebildet, dass diese ein Video empfängt, und so, dass diese das Bild aus dem Video extrahiert.
  • In dieser Ausführungsform ist das auf diese Weise empfangene Video beispielhaft als ein Videostream wiedergegeben, der durch ein Auto-Fahrtaufzeichnungsgerät (nicht dargestellt) erzeugt wird, welches Bilder der Umgebung des Fahrzeugs 9 aufzeichnet, und das Video wird der Erfassungseinheit 2 zur Feststellung bereitgestellt, ob es irgendwelche Hindernisse in der Nähe gibt. Das vorerwähnte Zielobjekt ist irgendein Hindernis, das in dem Erfassungssystem für Zielobjekte vordefiniert ist (zum Beispiel Fußgänger, andere Fahrzeuge etc.). Die Erfassungseinheit 2 kann ferner für eine andere Bildverarbeitung am Fahrzeug genutzt werden und ist nicht auf die hier vorliegende Offenbarung beschränkt.
  • Die Erfassungseinheit 2 umfasst ein Bilderfassungsmodul 21, ein erstes Bildverarbeitungsmodul 22, ein erstes Klassifikatormodul 23, ein Ausgabemodul 24 und ein Parametermodul 25.
  • Das Bilderfassungsmodul 21 ist so ausgebildet, dass dieses das von dem Video, das heißt, dem durch das Auto-Fahrtaufzeichnungsgerät erzeugten Videostream, empfangene Bild erfassen kann.
  • Das erste Bildverarbeitungsmodul 22 ist elektrisch mit dem Bilderfassungsmodul 21 zum Empfangen des Bildes verbunden und ist so ausgebildet, dass dieses von dem Bild ein erstes Teilbild extrahiert, das als der Bereich des Bildes dient, der Gegenstand der Feststellung durch die Erfassungseinheit 2 ist.
  • Das erste Klassifikatormodul 23 ist elektrisch mit dem ersten Bildverarbeitungsmodul 22 zum Empfangen des ersten Teilbildes verbunden und ist so ausgebildet, dass dieses die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren verbundene Operation durchführen kann, um so festzustellen, ob das erste Teilbild dem Zielobjekt ähnlich ist. Das erste Teilbild, welches von dem durch das Bilderfassungsmodul 21 erfassten Bildes extrahiert wird, entspricht dem Bild, das durch die Erfassungseinheit 2 ausgegeben werden soll. Wenn festgestellt wird, dass das erste Teilbild dem Zielobjekt ähnlich ist, bedeutet dies, dass das erste Klassifikatormodul 23 feststellt, dass es ein Hindernis in der Nähe des Fahrzeugs 9 gibt, und das erste Klassifikatormodul 23 ist ferner so ausgebildet, dass dieses das Benachrichtigungssignal zum Benachrichtigen eines Fahrers des Fahrzeugs 9 über das Hindernis ausgeben kann.
  • Das Ausgabemodul 24 ist elektrisch mit dem Bilderfassungsmodul 21 zum Empfangen des Bildes verbunden und ist so ausgebildet, dass dieses das Bild an die maschinelle Lerneinheit 3 ausgibt.
  • Das Parametermodul 25 ist elektrisch mit dem ersten Klassifikatormodul 23 verbunden und ist so ausgebildet, dass dieses die Parameter für schwache Klassifikatoren speichert, welche für die Verwendung durch das erste Klassifikatormodul 23 verfügbar sind, um die mit der Klassifizierung verbundene Operation durchzuführen.
  • Die maschinelle Lerneinheit 3 ist mit der Erfassungseinheit 2 kommunikativ gekoppelt, um von dieser das Bild zu empfangen. Die maschinelle Lerneinheit 3 ist so ausgebildet, dass diese mit der Klassifizierung verbundene Operationen unter Verwendung der Parameter für schwache Klassifikatoren bzw. von Parametern für starke Klassifikatoren durchführen kann, um so jeweils zwei Feststellungen treffen zu können, ob der Bereich des Bildes dem Zielobjekt ähnlich ist. Wenn die Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, ist die maschinelle Lerneinheit 3 weiter so ausgebildet, dass diese unter Verwendung des Bildes eine Trainingsoperation durchführt, um so neue Parameter für schwache Klassifikatoren zu erhalten, welche verwendet werden, um die Parameter für schwache Klassifikatoren der maschinellen Lerneinheit 3 zu aktualisieren und um die Parameter für schwache Klassifikatoren, die in dem Parametermodul 25 der Erfassungseinheit 2 gespeichert sind, zu aktualisieren.
  • In dieser Ausführungsform kann die maschinelle Lerneinheit 3 in dem Fahrzeug 9 angeordnet sein oder kann in einem entfernten Server (nicht gezeigt) angeordnet sein. Die maschinelle Lerneinheit 3 ist drahtlos (kann in einigen Fällen verdrahtet sein) mit der Erfassungseinheit 2 verbunden, um dem Ausgabemodul 24 zu erlauben, das Bild an diese auszugeben, und dem Parametermodul 25 zu erlauben, die neuen Parameter für schwache Klassifikatoren von dieser zu empfangen.
  • Die maschinelle Lerneinheit 3 umfasst ein zweites Bildverarbeitungsmodul 31, ein zweites Klassifikatormodul 32, ein Trainingsmodul 33 und ein Aktualisierungsmodul 34.
  • Das zweite Bildverarbeitungsmodul 31 ist so ausgebildet, dass dieses das Bild von dem Ausgabemodul 24 der Erfassungseinheit 2 empfängt und von dem Bild ein zweites Teilbild extrahiert, welches einen Inhalt aufweist, der mit dem des ersten Teilbildes identisch ist und der als der Bereich des Bildes dient, der durch die maschinelle Lerneinheit 3 den zwei Feststellungen ausgesetzt wird.
  • Das zweite Klassifikatormodul 32 ist elektrisch mit dem zweiten Bildverarbeitungsmodul 31 verbunden, um das zweite Teilbild und das Bild zu empfangen und ist so ausgebildet, dass dieses die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. der Parameter für starke Klassifikatoren verbundenen Operationen durchführt, um so die jeweils zwei Feststellungen treffen zu können, ob das zweite Teilbild dem Zielobjekt ähnlich ist. Da das zweite Klassifikatormodul 32 und das erste Klassifikatormodul 23 die identischen Parameter für schwache Klassifikatoren zum Durchführen der mit der Klassifizierung verbundenen Operation nutzen, sollte das Ergebnis der Feststellung unter Verwendung der Parameter für schwache Klassifikatoren durch das zweite Klassifikatormodul 32 äquivalent zu dem der Feststellung durch das erste Klassifikatormodul 23 sein. Da zudem eine Gesamtzahl der Parameter für starke Klassifikatoren größer ist als eine Gesamtzahl der Parameter für schwache Klassifikatoren, hat das Ergebnis der Feststellung unter Verwendung der Parameter für starke Klassifikatoren eine höhere Genauigkeit. Auf diese Weise wird das Ergebnis der Feststellung unter Verwendung der Parameter für starke Klassifikatoren als ein korrektes Ergebnis betrachtet. Wenn Ergebnisse der jeweils zwei Feststellungen unter Verwendung der Parameter für schwache Klassifikatoren bzw. der Parameter für starke Klassifikatoren unterschiedlich sind, bedeutet das, dass das Ergebnis der Feststellung unter Verwendung der Parameter für schwache Klassifikatoren fehlerhaft ist, und das Bild, welches dem fehlerhaften Ergebnis entspricht, wird durch das zweite Klassifikatormodul 32 ausgegeben.
  • Das Trainingsmodul 33 ist elektrisch mit dem zweiten Klassifikatormodul 32 verbunden, um das Bild von diesem zu empfangen, und ist so ausgebildet, dass dieses das Bild als eine Trainingsprobe zum Trainieren von Parametern des zweiten Klassifikatormoduls 32 verwendet, um so die neuen Parameter für schwache Klassifikatoren zu erhalten.
  • Das Aktualisierungsmodul 34 ist elektrisch mit dem Trainingsmodul 33 zum Empfangen der neuen Parameter für schwache Klassifikatoren verbunden und ist so ausgebildet, dass dieses die Parameter für schwache Klassifikatoren des zweiten Klassifikatormoduls 32 unter Verwendung der neuen Parameter für schwache Klassifikatoren aktualisiert und die neuen Parameter für schwache Klassifikatoren an das Parametermodul 25 der Erfassungseinheit 2 zur Aktualisierung der durch das erste Klassifikatormodul 23 verwendeten Parameter für schwache Klassifikatoren zu übertragen. In dieser Ausführungsform wird das Bild, welches dem fehlerhaften Ergebnis entspricht, gesammelt und wird zum Trainieren der Parameter des zweiten Klassifikatormoduls 32 verwendet, um so die neuen Parameter für schwache Klassifikatoren zu erhalten, die nachfolgend verwendet werden, um die Parameter für schwache Klassifikatoren zu aktualisieren.
  • In einer Ausführungsform ist das Aktualisierungsmodul 34 ferner so ausgebildet, dass dieses unter Verwendung eines vorbestimmten Satzes von Bildproben einen Vertrauenswert für die neuen Parameter für schwache Klassifikatoren berechnet, um so festzustellen, ob die neuen Parameter für schwache Klassifikatoren beim Erfassen von Hindernissen, die in dem Erfassungssystem für Zielobjekte vordefiniert sind (zum Beispiel Fußgänger, andere Fahrzeuge etc.) besser als die Parameter für schwache Klassifikatoren sind oder nicht. Wenn der so berechnete Vertrauenswert größer ist als ein Vertrauenswert der Parameter für schwache Klassifikatoren, ist es so, dass das Aktualisierungsmodul 34 die Parameter für schwache Klassifikatoren des zweiten Klassifikatormoduls 32 unter Verwendung der neuen Parameter für schwache Klassifikatoren aktualisiert und die neuen Parameter für schwache Klassifikatoren an das Parametermodul 25 der Erfassungseinheit 2 überträgt, um die Parameter für schwache Klassifikatorendes ersten Klassifikatormoduls 23 zu aktualisieren.
  • Es sei angemerkt, dass das erste Klassifikatormodul 23 in einer Ausführungsform einen schwachen Klassifikator 231 umfasst und der schwache Klassifikator 231 in Kombination mit den Parametern für schwache Klassifikatoren verwendet wird, um die mit der Klassifizierung verbundene Operation durchzuführen. Andererseits umfasst das zweite Klassifikatormodul 32 einen starken Klassifikator 321, wie in 3 gezeigt. Der starke Klassifikator 321 wird in Kombination mit den Parametern für starke Klassifikatoren verwendet, um die mit der Klassifizierung verbundene Operation durchzuführen. Die ersten M-Stufen des starken Klassifikators 321 bilden einen schwachen Klassifikator 322, und der schwache Klassifikator 321 wird in Kombination mit den Parametern für schwache Klassifikatoren verwendet, um die mit der Klassifizierung verbundene Operation durchzuführen. Auf diese Weise ist das zweite Klassifikatormodul 32 in der Lage, die Ergebnisse der jeweiligen zwei Feststellungen auszugeben.
  • Basierend auf den vorerwähnten Erläuterungen hat die vorliegende Erfindung die folgenden Vorteile.
  • Erstens wird durch Bereitstellen der Erfassungseinheit 2 eine Datenverarbeitung in Echtzeit an jedem aus dem durch das Auto-Fahrtaufzeichnungsgerät ausgegebenen Videostream extrahierten Bild durchgeführt und wird ein Benachrichtigungssignal zum Benachrichtigen des Fahrers ausgegeben, wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist (d.h., dass ein Hindernis vorliegt). Durch kontinuierliches Aktualisieren der Parameter für schwache Klassifikatoren kann die Genauigkeit der Klassifizierung durch das erste Klassifikatormodul 23 weiter verbessert werden, so dass eine falsche Positivrate vermindert werden kann.
  • Darüber hinaus ist es erreichbar, sicherzustellen, ob das Ergebnis der Feststellung durch das erste Klassifikatormodul 23 fehlerhaft ist, indem die maschinelle Lerneinheit 3 bereitgestellt wird, welche mit der Erfassungseinheit 2 kommunikativ gekoppelt ist, und mittels dem zweiten Klassifikatormodul 32, das mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. der Parameter für starke Klassifikatoren verbundene Operationen durchführt, um die Ergebnisse der jeweiligen zwei Feststellungen zu erhalten. Wenn sichergestellt wird, dass das Ergebnis der Feststellung fehlerhaft ist, wird das Bild an das Trainingsmodul 33 ausgegeben, um das Trainingsmodul 33 in die Lage zu versetzen, die Parameter des zweiten Klassifikatormoduls 32 zu trainieren, um die neuen Parameter für schwache Klassifikatoren zu erhalten, und aktualisiert das Aktualisierungsmodul 34 die Parameter für schwache Klassifikatoren unter Verwendung der neuen Parameter für schwache Klassifikatoren. Auf diese Weise kann das Bild, welches auf dem fehlerhaften Ergebnis der Beurteilung durch das erste Klassifikatormodul 23 beruht, automatisch bestimmt werden, und wird dieses Bild zum Selbsttrainieren verwendet, derart, dass die falsche Positivrate in Zukunft verringert wird. Da die vorerwähnten Vorgänge durch das Erfassungssystem für Zielobjekte automatisch durchgeführt werden, kann eine zusätzliche Feststellung mittels einer Klassifizierung durch Arbeit oder Kennzeichnung entfallen, so dass gewaltige Trainingsproben sehr schnell gesammelt werden, um die Parameter für schwache Klassifikatoren zu trainieren. Auf diese Weise kann die Leistungsfähigkeit der Erfassungseinheit 2 sehr schnell unterstützt werden und kann die falsche Positivrate verringert werden, um so die Fahrsicherheit besser zu gewährleisten.
  • Noch einmal auf 2 Bezug nehmend muss die maschinelle Lerneinheit 3 durch Bereitstellen der Erfassungseinheit 2 in einem eingebetteten System für Fahrzeuge (nicht gezeigt) des Fahrzeugs 9 und durch Bereitstellen der maschinellen Lerneinheit 3 in einem Server, der mit der Erfassungseinheit 2 drahtlos verbunden ist, nicht zwingend durch die Leistungsfähigkeit des eingebetteten Systems für Fahrzeuge beschränkt sein und kann das zweite Klassifikatormodul 32, welches eine bessere Rechenleistung hat, in der maschinellen Lerneinheit 3 vorgesehen sein. Deshalb kann unter Verwendung der Parameter für starke Klassifikatoreneine mit der Klassifizierung verbundene schnellere Echtzeit-Operation durchgeführt werden, um festzustellen, ob das Ergebnis der Feststellung durch das erste Klassifikatormodul 23 fehlerhaft ist, so dass die Parameter für schwache Klassifikatoren in den nachfolgenden Lern- und Aktualisierungsvorgängen weiter verbessert werden können. In anderen Ausführungsformen kann jedoch die maschinelle Lerneinheit 3 in dem eingebetteten System für Fahrzeuge des Fahrzeugs 9 zusammen mit der Erfassungseinheit 2 angeordnet sein.
  • Zweitens kann eine bessere Leistungsfähigkeit des ersten Klassifikatormoduls 23 und des zweiten Klassifikatormoduls 32 nach jeder Aktualisierung sichergestellt werden, indem das Aktualisierungsmodul 34 nur die Parameter für schwache Klassifikatoren unter Verwendung der neuen Parameter für schwache Klassifikatoren aktualisiert, wenn die letzteren einen höheren Vertrauenswert haben. Wenn das Bild, welches sich aus einem falschen Positiv ergibt, zum Trainieren der Parameter des zweiten Klassifikatormoduls 32 nicht geeignet ist, müssen die neuen Parameter für schwache Klassifikatoren nicht zum Aktualisieren von Parametern des ersten Klassifikatormoduls 23 und des zweiten Klassifikatormoduls 32 verwendet werden, um eine Verschlechterung der Erfassungsfähigkeit zu verhindern.
  • Mit Bezug auf 4 und 5 ist eine zweite Ausführungsform des Erfassungssystems für Zielobjekte gemäß der vorliegenden Erfindung dargestellt. Die zweite Ausführungsform des Erfassungssystems für Zielobjekte ist ähnlich der ersten Ausführungsform und hat verglichen mit der ersten Ausführungsform die folgenden Unterschiede.
  • Das erste Klassifikatormodul 23 der Erfassungseinheit 2 umfasst ferner ein Abstand-Berechnungsmodul 232. Das Abstand-Berechnungsmodul 232 ist so ausgebildet, dass dieses, wenn der schwache Klassifikator 231 feststellt, dass es in der Nähe des Fahrzeugs 9 ein Hindernis gibt, das erste Teilbild erhält, einen Abstand des Fahrzeugs 9 von dem Hindernis auf der Basis einer Größe des in dem ersten Teilbild enthaltenen Hindernisses berechnet und ein Hindernis-Abstandssignal ausgibt, welches den Abstand des Fahrzeugs 9 von dem Hindernis angibt.
  • Die zweite Ausführungsform des Erfassungssystems für Zielobjekte umfasst ferner eine Feedback-Einheit 4, welche elektrisch mit der Erfassungseinheit 2 zum Empfangen des Benachrichtigungssignals verbunden ist und welche so ausgebildet ist, dass diese ferner empfängt ein Fahrzeugsignal, das einem Betrieb des mit der Erfassungseinheit 2 versehenen Fahrzeugs 9 zugeordnet ist, ein Kollisionssignal, das durch einen Kollisionssensor des Fahrzeugs 9 erzeugt wird, und das Hindernis-Abstandssignal. Die Feedback-Einheit 4 ist ferner so ausgebildet, dass diese ein Feedback-Signal eines falschen Positivs an das Ausgabemodul ausgibt, und zwar basierend auf wenigstens einem der Signale ausgewählt aus Fahrzeugsignal, Kollisionssignal, Hindernis-Abstandssignal und Benachrichtigungssignal oder einer Kombination davon. Das Ausgabemodul 24 gibt in Abhängigkeit vom Empfang des Feedback-Signals eines falschen Positivs das Bild an das zweite Bildverarbeitungsmodul 31 der maschinellen Lerneinheit 3 aus.
  • In dieser Ausführungsform enthält das Fahrzeugsignal einen Hinweis auf eine Fahrzeuggeschwindigkeit des Fahrzeugs 9 und einen Bewegungsweg eines Bremspedals des Fahrzeugs 9. Das Fahrzeugsignal kann jedoch auch die Fahrzeuggeschwindigkeit oder den Bewegungsweg des Bremspedals anzeigen und ist nicht beschränkt auf die hier vorliegende Offenbarung.
  • Die Feedback-Einheit 4 ist so ausgebildet, dass diese das Feedback-Signal des falschen Positivs in wenigstens einer der folgenden Situationen ausgibt.
  • Die erste Situation ist die, in welcher die Feedback-Einheit 4 das Benachrichtigungssignal empfängt und eine Rate der Veränderung einer Abnahme der Fahrzeuggeschwindigkeit nicht größer als ein voreingestellter Verzögerungsgrenzwert ist, oder alternativ die Feedback-Einheit 4 das Benachrichtigungssignal empfängt und der Bewegungsweg des Bremspedals nicht größer ist als ein voreingestellter Bremshub-Grenzwert ist.
  • Diese Situation bedeutet, dass das erste Klassifikatormodul 23 feststellt, dass ein Hindernis vorliegt (das heißt, das erste Teilbild dem Zielobjekt ähnlich ist), das Fahrzeug 9 aber nicht schnell verzögert oder der Fahrer das Bremspedal nicht fest drückt. Deshalb stellt in dieser Situation die Feedback-Einheit 4 fest, dass eine Beurteilung durch das erste Klassifikatormodul 23 fehlerhaft ist.
  • Die zweite Situation ist die, in welcher die Feedback-Einheit 4 das Benachrichtigungssignal nicht empfängt und die Rate einer Veränderung der Abnahme der Fahrzeuggeschwindigkeit größer ist als der voreingestellte Verzögerungsgrenzwert, oder alternativ die Feedback-Einheit 4 das Benachrichtigungssignal nicht empfängt und der Bewegungsweg des Bremspedals größer ist als der voreingestellte Bremshub-Grenzwert.
  • Diese Situation bedeutet, dass das erste Klassifikatormodul 23 feststellt, dass kein Hindernis vorliegt (das heißt, das erste Teilbild ist dem Zielobjekt nicht ähnlich), das Fahrzeug 9 aber schnell verzögert oder der Fahrer das Bremspedal fest drückt. Deshalb stellt in dieser Situation die Feedback-Einheit 4 fest, dass eine Beurteilung durch das erste Klassifikatormodul 23 fehlerhaft ist.
  • Eine dritte Situation ist die, in welcher die Feedback-Einheit 4 das Benachrichtigungssignal nicht empfängt, aber das Kollisionssignal empfängt.
  • Diese Situation bedeutet, dass das erste Klassifikatormodul 23 das Benachrichtigungssignal nicht ausgibt oder die Ausgabe des Benachrichtigungssignals durch das erste Klassifikatormodul 23 zu spät erfolgt, so dass der Fahrer nicht genug Reaktionszeit hat.
  • Eine vierte Situation ist die, in welcher der Abstand des Fahrzeugs 9 von dem Hindernis kleiner ist als der berechnete Bremsweg.
  • Zum Beispiel stellt die Feedback-Einheit 4 basierend auf dem Abstand des Fahrzeugs 9 vom Hindernis fest, wie dieser durch das Abstand-Berechnungsmodul 232 berechnet wurde, dass ein Hindernis in weniger als einem Sicherheitsbremsabstand von dem Fahrzeug 9 entfernt (d.h., dem berechneten Bremsweg) vorliegt, sich das Fahrzeug 9 aber noch dem Hindernis nähert; in dieser Situation stellt die Feedback-Einheit 4 fest, dass eine Beurteilung durch das erste Klassifikatormodul 23 fehlerhaft ist.
  • Der berechnete Bremsweg wird gemäß den folgenden Gleichungen erhalten. v2 = v 2 / 0 + 2as Gleichung 1 S = v0·t Gleichung 2 S' = s + S Gleichung 3 in welchen S‘ der berechnete Bremsweg ist, v eine voreingestellte Endgeschwindigkeit ist und auf Null gesetzt ist, v0 eine Anfangsgeschwindigkeit ist und gleich der Fahrzeuggeschwindigkeit ist, a eine Beschleunigung ist und basierend auf einer voreingestellten Bremskraft von 0,4 g erhalten wird, s ein theoretischer Bremsweg ist, der basierend auf der Gleichung 1 erhalten wird, S eine Verlagerung des Fahrzeugs 9 innerhalb einer Reaktionszeit ist und t die Reaktionszeit des Fahrers ist und im Wesentlichen gleich 0,8 s beträgt.
  • Auf diese Weise ist die zweite Ausführungsform des Erfassungssystems für Zielobjekte in der Lage, ähnliche Effekte wie die erste Ausführungsform zu erzielen und umfasst ferner die folgenden Vorteile.
  • Durch Bereitstellen des Benachrichtigungssignals, des Fahrzeugsignals, des Hindernis-Abstandssignals und des Kollisionssignals an der Feedback-Einheit 4, ist die Feedback-Einheit 4 in der Lage, festzustellen, ob das erste Klassifikatormodul 23 ein falsches Positiv erzeugt hat. Zudem ist dadurch, dass das Ausgabemodul 24 so ausgebildet ist, dass dieses das Bild an die maschinelle Lerneinheit 3 nur dann ausgibt, wenn dieses das Feedback-Signal des falschen Positivs empfängt, das durch das Ausgabemodul 24 ausgegebene Bild eine effektive Lernprobe, die einem durch das erste Klassifikatormodul 23 erzeugten falschen Positiv entspricht. Auf diese Weise kann der Datendurchsatz des zweiten Klassifikatormoduls 32 signifikant verringert werden. Das heißt, es kann die Anforderung an eine Arbeitsleistung des zweiten Klassifikatormoduls 32 gesenkt werden und es kann eine Komplexität bei der Gestaltung des zweiten Klassifikatormoduls 32 verringert werden. Als Ergebnis dessen kann eine Architektur mit gewöhnlicher Rechenleistung zur Verwirklichung des zweiten Klassifikatormoduls 32 verwendet werden. In einer Ausführungsform, in welcher die maschinelle Lerneinheit 3 direkt in das eingebettete System für Fahrzeuge des Fahrzeugs 9 zusammen mit der Erfassungseinheit 2 eingegliedert ist, ist nicht nur die Gestaltung kostensparend, sondern kann auch die Bereitstellung einer unabhängigen maschinellen Lerneinheit 3 am Fahrzeug 9 unnötig gemacht werden. Verglichen mit dem Zustand, in welchem die maschinelle Lerneinheit 3 in einem entfernten Server liegt, erlaubt darüber hinaus das direkte Bereitstellen der maschinellen Lerneinheit 3 in dem eingebetteten System für Fahrzeuge des Fahrzeugs 9 zusammen mit der Erfassungseinheit 2 eine rasche Aktualisierung der Parameter des ersten Klassifikatormoduls 23, ohne dass eine Verbindung mit einem entfernten Server erforderlich wäre.
  • Es sei angemerkt, dass die Erfassungseinheit 2, die maschinelle Lerneinheit 3 und die Feedback-Einheit 4 des Erfassungssystems für Zielobjekte auf Hardware-Ebene (wie Prozessor, IC-Chip etc.) oder auf Software-Ebene (wie Codes, die durch einen Prozessor auszuführende Befehle enthalten) realisiert werden kann.
  • In Bezug auf 4 und 6 ist eine Ausführungsform des Verfahrens zur Zielobjekterfassung gemäß der vorliegenden Erfindung in das Erfassungssystem für Zielobjekte zu implementieren und umfasst die folgenden Schritte.
  • In Schritt 51 erfasst die Erfassungseinheit 2 nach Empfangen eines Videos ein Bild aus dem empfangenen Video.
  • In diesem Schritt extrahiert die Erfassungseinheit 2 ferner ein erstes Teilbild aus dem Bild, das als ein Bereich des Bildes herangezogen wird, und gibt das Bild in Abhängigkeit vom Empfang eines Feedback-Signals über ein falsches Positiv an die maschinelle Lerneinheit 3 aus.
  • Im Schritt 52 führt die Erfassungseinheit 2 eine mit der Klassifizierung unter Verwendung von Parametern für schwache Klassifikatoren verbundene Operation durch, um so festzustellen, ob der Bereich des Bildes dem Zielobjekt ähnlich ist. Wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist, gibt die Erfassungseinheit 2 das Benachrichtigungssignal aus.
  • In diesem Schritt führt die Erfassungseinheit 2 die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren verbundene Operation durch, um so festzustellen, ob das erste Teilbild dem Zielobjekt ähnlich ist, und gibt das Benachrichtigungssignal aus, welches auf das Vorhandensein eines Hindernisses hinweist (wenn der Bereich des Bildes als das Hindernis bestimmt wird), wenn festgestellt wird, dass das erste Teilbild dem Zielobjekt ähnlich ist.
  • Im Schritt 53 empfängt die Feedback-Einheit 4 wenigstens ein Fahrzeugsignal, das einer Operation des Fahrzeugs 9 (siehe 5) zugeordnet ist, die mit der Erfassungseinheit 2 bereitgestellt wird, und entscheidet basierend auf wenigstens dem Fahrzeugsignal, ob das Feedbacksignal des falschen Positivs an die Erfassungseinheit 2 ausgegeben werden soll oder nicht. Das Fahrzeugsignal zeigt wenigstens die Fahrzeuggeschwindigkeit des Fahrzeugs 9 oder einen Bewegungsweg eines Bremspedals des Fahrzeugs 9 an.
  • In diesem Schritt empfängt die Feedback-Einheit 4 ferner ein Kollisionssignal, welches durch einen Kollisionssensor des Fahrzeugs 9 erzeugt wird, und ein Hindernis-Abstandssignal, welches einen Abstand des Fahrzeugs 9 von dem Hindernis anzeigt.
  • Die Feedback-Einheit 4 gibt das Feedback-Signal des falschen Positivs in wenigstens einer der folgenden Situationen aus.
  • In einer ersten Situation empfängt die Feedback-Einheit 4 das Benachrichtigungssignal und ist eine Rate der Veränderung einer Abnahme der Fahrzeuggeschwindigkeit nicht größer als ein voreingestellter Verzögerungsgrenzwert; oder alternativ empfängt die Feedback-Einheit 4 das Benachrichtigungssignal und ist der Bewegungsweg des Bremspedals nicht größer als ein voreingestellter Bremshub-Grenzwert.
  • In einer zweiten Situation empfängt die Feedback-Einheit 4 das Benachrichtigungssignal nicht und ist die Rate der Veränderung einer Abnahme der Fahrzeuggeschwindigkeit größer als der voreingestellte Verzögerungsgrenzwert, oder empfängt die Feedback-Einheit 4 alternativ das Benachrichtigungssignal nicht und ist der Bewegungsweg des Bremspedals größer als der voreingestellte Bremshub-Grenzwert.
  • In einer dritten Situation empfängt die Feedback-Einheit 4 das Benachrichtigungssignal nicht, empfängt aber das Kollisionssignal.
  • In einer vierten Situation ist der Abstand des Fahrzeugs 9 von dem Hindernis kleiner als ein berechneter Bremsweg. Der berechnete Bremsweg wird basierend auf der Fahrzeuggeschwindigkeit erhalten.
  • Nach dem Empfang des durch die Feedback-Einheit 4 ausgegebenen Feedbacksignals des falschen Positivs geht der Ablauf weiter zum Schritt 54.
  • In Schritt 54 führt die maschinelle Lerneinheit 3 Operationen durch, die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. Parameter für starke Klassifikatoren verbunden sind, um so jeweils zwei Feststellungen zu treffen, ob der Bereich des Bildes dem Zielobjekt ähnlich ist. Wenn Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, führt die maschinelle Lerneinheit 3 unter Verwendung des Bildes eine Trainingsoperation durch, um so neue Parameter für schwache Klassifikatoren zu erhalten, welche dazu verwendet werden, die Parameter für schwache Klassifikatoren der Erfassungseinheit 2 und der maschinellen Lerneinheit 3 zu aktualisieren.
  • In diesem Schritt extrahiert die maschinelle Lerneinheit 3 aus dem Bild ein zweites Teilbild, welches einen Inhalt umfasst, der mit dem des ersten Teilbildes identisch ist und der als der Bereich des Bildes herangezogen wird, und führt die Operationen durch, die mit einer Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. der Parameter für starke Klassifikatoren verbunden sind, um so jeweils zwei Feststellungen zu treffen, ob das zweite Teilbild dem Zielobjekt ähnlich ist. Wenn die Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, wird das Bild als eine Trainingsprobe zum Trainieren von Parametern der maschinellen Lerneinheit 3 verwendet, um so die neuen Parameter für schwache Klassifikatoren zu erhalten.
  • In diesem Schritt berechnet die maschinelle Lerneinheit 3 einen Vertrauenswert für die neuen Parameter für schwache Klassifikatoren. Wenn der so berechnete Vertrauenswert größer ist als ein Vertrauenswert der Parameter für schwache Klassifikatoren geht der Ablauf weiter zum Schritt 55.
  • Im Schritt 55 aktualisiert die maschinelle Lerneinheit 3 die Parameter für schwache Klassifikatoren der maschinellen Lerneinheit 3 unter Verwendung der neuen Parameter für schwache Klassifikatoren und überträgt die neuen Parameter für schwache Klassifikatoren an die Erfassungseinheit 2, um die Parameter für schwache Klassifikatoren der Erfassungseinheit 2 zu aktualisieren.
  • Auf diese Weise ist das Verfahren für eine Zielobjekterfassung zu einem adaptiven Lernen fähig und kann ähnliche Effekte erzielen wie die Ausführungsformen des Erfassungssystems für Zielobjekte.
  • Um das Ganze noch einmal zusammenzufassen, können durch Bereitstellen der Erfassungseinheit 2 und der maschinelle Lerneinheit 3 Echtzeit-Operationen an dem aus einem Videostream extrahierten Bild durchgeführt werden und kann das Bild, welches einem falschen Positiv entspricht, automatisch für eine nachfolgende Trainingsoperation entdeckt werden. Folglich kann die Leistungsfähigkeit des Erfassungssystems für Zielobjekte sehr schnell gefördert werden und kann die Anzahl falscher Positive reduziert werden, um so die Fahrassistenz zu verbessern und wiederum die Fahrsicherheit zu erhöhen.
  • In der obigen Beschreibung wurden zu Erläuterungszwecken zahlreiche spezifische Details angeführt, um ein tiefgreifendes Verständnis der Ausführungsform(en) zu ermöglichen. Es ist dem Fachmann jedoch klar, dass ein oder mehrere weitere Ausführungsformen auch ohne einige dieser spezifischen Details praxistauglich sein können. Es sollte auch klar sein, dass eine Bezugnahme in dieser Beschreibung auf „eine (einzige) Ausführungsform“, „eine (unbestimmter Artikel) Ausführungsform“, eine Ausführungsform mit Angabe einer Ordnungszahl usw. bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft bei der praktischen Umsetzung der vorliegenden Erfindung enthalten sein kann. Es sollte ferner klar sein, dass in der Beschreibung verschiedene Merkmale manchmal in einer einzelnen Ausführungsform, Figur oder Figurenbeschreibung zum Zwecke der Straffung der Offenbarung und Unterstützung des Verständnisses der verschiedenen erfindungsgemäßen Aspekte in Gruppen zusammengefasst sein können.
  • Obwohl die vorliegende Erfindung in Verbindung mit einer oder mehreren beispielhaften Ausführungsformen beschrieben wurde, soll dies so verstanden sein, dass diese Offenbarung nicht auf die ein oder mehreren offenbarten Ausführungsformen beschränkt ist, sondern auf verschiedene Anordnungen im Rahmen des Schutzbereichs in seiner breitesten Interpretation abdecken soll, um so alle solche Modifikationen und äquivalenten Anordnungen zu umschließen.

Claims (18)

  1. Erfassungssystem für Zielobjekte, gekennzeichnet durch: eine Erfassungseinheit (2), welche so ausgebildet ist, dass diese ein Bild erhält, um eine mit einer Klassifizierung unter Verwendung von Parametern für schwache Klassifikatoren verbundene Operation durchzuführen, so dass festgestellt werden kann, ob ein Bereich des Bildes einem Zielobjekt ähnlich ist, und um das Bild auszugeben, wobei die Erfassungseinheit (2) ferner so ausgebildet ist, dass diese ein Benachrichtigungssignal ausgibt, wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist; und eine maschinelle Lerneinheit (3), welche mit der Erfassungseinheit (2) zum Empfangen des Bildes kommunikativ gekoppelt ist und welche so ausgebildet ist, dass diese mit einer Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. Parameter für starke Klassifikatoren verbundene Operationen durchführen kann, um so jeweils zwei Feststellungen zu treffen, ob der Bereich des Bildes dem Zielobjekt ähnlich ist; wobei die maschinelle Lerneinheit (3) ferner so ausgebildet ist, dass diese, wenn Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, unter Verwendung des Bildes eine Trainingsoperation durchführt, um so neue Parameter für schwache Klassifikatoren zu erhalten, welche dazu verwendet werden, die Parameter für schwache Klassifikatoren der Erfassungseinheit (2) und der maschinelle Lerneinheit (3) zu aktualisieren.
  2. Erfassungssystem für Zielobjekte nach Anspruch 1, dadurch gekennzeichnet, dass die Erfassungseinheit (2) ferner so ausgebildet ist, dass diese ein Video empfängt, und umfasst: ein Bilderfassungsmodul (21), welches so ausgebildet ist, dass dieses das Bild aus dem empfangenen Video erfasst; ein erstes Bildverarbeitungsmodul (22), welches elektrisch mit dem Bilderfassungsmodul (21) zum Empfangen des Bildes verbunden ist und welches so ausgebildet ist, dass dieses ein erstes Teilbild aus dem Bild extrahiert, das als der Bereich des Bildes herangezogen wird, der bei der Feststellung durch die Erfassungseinheit (2) verwendet wird; ein erstes Klassifikatormodul (23), welches mit dem ersten Bildverarbeitungsmodul (22) zum Empfangen des ersten Teilbildes elektrisch verbunden ist und welches so ausgebildet ist, dass dieses die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren verbundene Operation durchführt, um so festzustellen, ob das erste Teilbild dem Zielobjekt ähnlich ist, wobei das erste Klassifikatormodul (23) ferner so ausgebildet ist, dass dieses das Benachrichtigungssignal ausgibt, wenn festgestellt wird, dass das erste Teilbild dem Zielobjekt ähnlich ist; und ein Ausgabemodul (24), welches mit dem Bilderfassungsmodul (21) zum Empfangen des Bildes elektrisch verbunden ist und welches so ausgebildet ist, dass dieses das Bild an die maschinelle Lerneinheit (3) ausgibt.
  3. Erfassungssystem für Zielobjekte nach Anspruch 2, ferner dadurch gekennzeichnet, dass die maschinelle Lerneinheit (3) umfasst: ein zweites Bildverarbeitungsmodul (31), welches so ausgebildet ist, dass dieses das Bild von dem Ausgabemodul (24) der Erfassungseinheit (2) empfängt und von dem Bild ein zweites Teilbild extrahiert, welches einen Inhalt aufweist, der identisch ist mit dem des ersten Teilbildes und welches als der Bereich des Bildes herangezogen wird, der in den zwei durch die maschinelle Lerneinheit (3) getroffenen Feststellungen verwendet wird; ein zweites Klassifikatormodul (32), welches mit dem zweiten Bildverarbeitungsmodul (31) zum Empfangen des zweiten Teilbildes und des Bildes elektrisch verbunden ist und welches so ausgebildet ist, dass dieses die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. der Parameter für starke Klassifikatoren verbundene Operationen durchführt, um so die jeweils zwei Feststellungen zu treffen, ob das zweite Teilbild dem Zielobjekt ähnlich ist, wobei das zweite Klassifikatormodul (32) so ausgebildet ist, dass dieses das Bild ausgibt, wenn Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind; ein Trainingsmodul (33), welches mit dem zweiten Klassifikatormodul (32) zum Empfangen des Bildes elektrisch verbunden ist und welches so ausgebildet ist, dass dieses das Bild als eine Trainingsprobe zum Trainieren von Parametern des zweiten Klassifikatormoduls (32) verwendet, um so die neuen Parameter für schwache Klassifikatoren zu erhalten; und ein Aktualisierungsmodul (34), welches mit dem Trainingsmodul (33) zum Empfangen der neuen Parameter für schwache Klassifikatoren elektrisch verbunden ist und welches so ausgebildet ist, dass dieses die Parameter für schwache Klassifikatoren des zweiten Klassifikatormoduls (32) unter Verwendung der neuen Parameter für schwache Klassifikatoren aktualisiert und die neuen Parameter für schwache Klassifikatoren an die Erfassungseinheit (2) zum Aktualisieren der Parameter für schwache Klassifikatoren des ersten Klassifikatormoduls (23) überträgt.
  4. Erfassungssystem für Zielobjekte nach Anspruch 3, ferner gekennzeichnet durch eine Feedback-Einheit (4), welche mit der Erfassungseinheit (2) zum Empfangen des Benachrichtigungssignals elektrisch verbunden ist und welche so ausgebildet ist, dass diese wenigstens ein Fahrzeugsignal empfängt, das dem Betrieb eines Fahrzeugs (9), das mit der Erfassungseinheit (2) versehen ist, zugeordnet ist, und basierend auf dem Fahrzeugsignal ein Feedbacksignal eines falschen Positivs an das Ausgabemodul (24) ausgibt, und wobei das Ausgabemodul (24) so ausgebildet ist, dass dieses in Abhängigkeit vom Empfang des Feedbacksignals des falschen Positivs das Bild an das zweite Bildverarbeitungsmodul (31) der maschinellen Lerneinheit (3) ausgibt.
  5. Erfassungssystem für Zielobjekte nach Anspruch 4, ferner dadurch gekennzeichnet, dass das Fahrzeugsignal eine Fahrzeuggeschwindigkeit des Fahrzeugs (9) angibt; und dass die Feedback-Einheit (4) ferner so ausgebildet ist, dass diese das Feedbacksignal für ein falsches Positiv in wenigstens einer der folgenden Situationen ausgibt wenn die Feedback-Einheit (4) das Benachrichtigungssignal empfängt und eine Rate der Veränderung einer Abnahme der Fahrzeuggeschwindigkeit nicht größer als ein voreingestellter Verzögerungsgrenzwert ist, und wenn die Feedback-Einheit (4) das Benachrichtigungssignal nicht empfängt und die Rate der Veränderung einer Abnahme der Fahrzeuggeschwindigkeit größer ist als der voreingestellte Verzögerungsgrenzwert.
  6. Erfassungssystem für Zielobjekte nach Anspruch 4, ferner dadurch gekennzeichnet, dass das Fahrzeugsignal einen Bewegungsweg eines Bremspedals des Fahrzeugs (9) angibt; und dass die Feedback-Einheit (4) ferner so ausgebildet ist, dass diese das Feedbacksignal für das falsche Positiv in wenigstens einer der folgenden Situationen ausgibt wenn die Feedback-Einheit (4) das Benachrichtigungssignal empfängt und der Bewegungsweg des Bremspedals nicht größer ist als ein voreingestellter Bremshub-Grenzwert, und wenn die Feedback-Einheit (4) das Benachrichtigungssignal nicht empfängt und der Bewegungsweg des Bremspedals größer ist als der voreingestellte Bremshub-Grenzwert.
  7. Erfassungssystem für Zielobjekte nach Anspruch 4, dadurch gekennzeichnet, dass das Benachrichtigungssignal das Vorhandensein eines Hindernisses in dem Bild angibt; dass die Feedback-Einheit (4) ferner so ausgebildet ist, dass diese empfängt ein Kollisionssignal, welches durch einen Kollisionssensor des Fahrzeugs (9) erzeugt wird, und ein Hindernis-Abstandssignal, welches einen Abstand des Fahrzeugs (9) vom Hindernis angibt; und dass die Feedback-Einheit (4) ferner so ausgebildet ist, dass diese das Feedbacksignal für das falsche Positiv in wenigstens einer der folgenden Situationen ausgibt wenn die Feedback-Einheit (4) das Benachrichtigungssignal nicht empfängt, aber das Kollisionssignal empfängt, und wenn der Abstand des Fahrzeugs (9) vom Zielobjekt kleiner ist als ein berechneter Bremsweg.
  8. Erfassungssystem für Zielobjekte nach Anspruch 7, dadurch gekennzeichnet, dass das Fahrzeugsignal eine Fahrzeuggeschwindigkeit des Fahrzeugs (9) angibt; und dass der berechnete Bremsweg basierend auf wenigstens der Fahrzeuggeschwindigkeit berechnet wird.
  9. Erfassungssystem für Zielobjekte nach Anspruch 3, ferner dadurch gekennzeichnet, dass das Aktualisierungsmodul (34) ferner so ausgebildet ist, dass dieses einen Vertrauenswert für die neuen Parameter für schwache Klassifikatoren berechnet und die Parameter für schwache Klassifikatoren des zweiten Klassifikatormoduls (32) unter Verwendung der neuen Parameter für schwache Klassifikatoren aktualisiert und die neuen Parameter für schwache Klassifikatoren an die Erfassungseinheit (2) zum Aktualisieren der Parameter für schwache Klassifikatoren des ersten Klassifikatormoduls (23) sendet, wenn der so berechnete Vertrauenswert größer ist als ein Vertrauenswert der Parameter für schwache Klassifikatoren.
  10. Verfahren zur Zielobjekterfassung, wobei das Verfahren in ein Erfassungssystem für Zielobjekte implementiert ist, das eine Erfassungseinheit (2) und eine maschinelle Lerneinheit (3) umfasst, wobei das Verfahren gekennzeichnet ist durch die folgenden Schritte: Durchführen einer mit einer Klassifizierung unter Verwendung von Parametern für schwache Klassifikatoren verbundene Operation nach Erhalten eines Bildes durch die Erfassungseinheit (2), um so festzustellen, ob ein Bereich des Bildes einem Zielobjekt ähnlich ist; Ausgeben eines Benachrichtigungssignals durch die Erfassungseinheit (2), wenn festgestellt wird, dass der Bereich des Bildes dem Zielobjekt ähnlich ist; Ausgeben des Bildes an die maschinelle Lerneinheit (3) durch die Erfassungseinheit (2); Durchführen von Operationen durch die maschinelle Lerneinheit (3) nach einem Empfangen des Bildes, die mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. von Parametern für starke Klassifikatoren verbunden sind, um so jeweils zwei Feststellungen zu treffen, ob der Bereich des Bildes dem Zielobjekt ähnlich ist; und Durchführen einer Trainingsoperation durch die maschinelle Lerneinheit (3) unter Verwendung des Bildes, wenn Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, um so neue Parameter für schwache Klassifikatoren zu erhalten, welche dazu verwendet werden, die Parameter für schwache Klassifikatoren der Erfassungseinheit (2) und der maschinelle Lerneinheit (3) zu aktualisieren.
  11. Verfahren nach Anspruch 10, vor dem Schritt des Durchführens einer mit der Klassifizierung verbundenen Operation, ferner gekennzeichnet durch den Schritt: nach dem Empfangen eines Videos wird durch die Erfassungseinheit (2) das Bild von dem empfangenen Video erfasst; wobei der Schritt des Durchführens einer mit der Klassifizierung verbundenen Operation umfasst Extrahieren eines ersten Teilbildes aus dem Bild, das als der Bereich des Bildes herangezogen wird, und Durchführen der mit der Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren verbundenen Operation, um so festzustellen, ob das erste Teilbild dem Zielobjekt ähnlich ist; wobei der Schritt des Ausgebens eines Benachrichtigungssignals ein Ausgeben des Benachrichtigungssignals dann umfasst, wenn festgestellt wird, dass das erste Teilbild dem Zielobjekt ähnlich ist.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass der Schritt des Durchführens von Operationen, die mit der Klassifizierung verbunden sind, umfasst Extrahieren aus dem Bild eines zweiten Teilbildes, welches einen Inhalt umfasst, der identisch ist mit dem des ersten Teilbildes und der als der Bereich des Bildes herangezogen wird, und Durchführen der Operationen, die mit einer Klassifizierung unter Verwendung der Parameter für schwache Klassifikatoren bzw. der Parameter für starke Klassifikatoren verbunden sind, um so die jeweils zwei Feststellungen zu treffen, ob das zweite Teilbild dem Zielobjekt ähnlich ist; und dass der Schritt des Durchführens einer Trainingsoperation umfasst, wenn die Ergebnisse der jeweils zwei Feststellungen unterschiedlich sind, Verwenden des Bildes als Trainingsprobe zum Trainieren von Parametern der maschinellen Lerneinheit (3), um die neuen Parameter für schwache Klassifikatoren zu erhalten, und Aktualisieren der Parameter für schwache Klassifikatoren der maschinellen Lerneinheit (3) unter Verwendung der neuen Parameter für schwache Klassifikatoren und Übertragen der neuen Parameter für schwache Klassifikatoren an die Erfassungseinheit (2), um die Parameter für schwache Klassifikatoren der Erfassungseinheit (2) zu aktualisieren.
  13. Verfahren nach Anspruch 12, wobei das Erfassungssystem für Zielobjekte ferner eine Feedback-Einheit (4) umfasst, nach dem Schritt des Ausgebens eines Benachrichtigungssignals und vor dem Schritt des Ausgebens des Bildes, wobei das Verfahren ferner gekennzeichnet ist durch die Schritte: Empfangen wenigstens eines Fahrzeugsignals, das dem Betrieb eines Fahrzeugs (9), das mit der Erfassungseinheit (2) versehen ist, zugeordnet ist; und Ausgeben eines Feedbacksignals für ein falsches Positiv an die Erfassungseinheit (2) basierend auf dem Fahrzeugsignal; wobei der Schritt des Ausgebens des Bildes an die maschinelle Lerneinheit (3) in Abhängigkeit vom Empfang des Feedbacksignals für ein falsches Positiv ein Ausgeben des Bildes an die maschinelle Lerneinheit (3) umfasst.
  14. Verfahren nach Anspruch 13, ferner dadurch gekennzeichnet, dass im Schritt des Empfangens wenigstens eines Fahrzeugsignals das Fahrzeugsignal eine Fahrzeuggeschwindigkeit des Fahrzeugs (9) angibt; und dass der Schritt des Ausgebens eines Feedbacksignals für ein falsches Positiv ein Ausgeben des Feedbacksignals für ein falsches Positiv in wenigstens einer der folgenden Situationen umfasst wenn die Feedback-Einheit (4) das Benachrichtigungssignal empfängt und eine Rate der Veränderung einer Abnahme der Fahrzeuggeschwindigkeit nicht größer als ein voreingestellter Verzögerungsgrenzwert ist, und wenn die Feedback-Einheit (4) das Benachrichtigungssignal nicht empfängt und die Rate der Veränderung der Abnahme der Fahrzeuggeschwindigkeit größer ist als der voreingestellte Verzögerungsgrenzwert.
  15. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass im Schritt des Empfangens wenigstens eines Fahrzeugsignals das Fahrzeugsignal einen Bewegungsweg eines Bremspedals des Fahrzeugs (9) angibt; und dass der Schritt des Ausgebens eines Feedbacksignals für ein falsches Positiv ein Ausgeben des Feedback-Signals für ein falsches Positiv in wenigstens einer der folgenden Situationen umfasst wenn die Feedback-Einheit (4) das Benachrichtigungssignal empfängt und deren Bewegungsweg des Bremspedals nicht größer ist als ein voreingestellter Bremshub-Grenzwert, und wenn die Feedback-Einheit (4) das Benachrichtigungssignal nicht empfängt und der Bewegungsweg des Bremspedals größer ist als der voreingestellte Bremshub-Grenzwert.
  16. Verfahren nach Anspruch 13, ferner dadurch gekennzeichnet, dass in dem Schritt des Ausgebens eines Benachrichtigungssignals das Benachrichtigungssignal ein Vorhandensein eines Hindernisses in dem Bild angibt; dass der Schritt des Empfangens wenigstens eines Fahrzeugsignals umfasst ein Empfangen eines Kollisionssignals, welches durch einen Kollisionssensor des Fahrzeugs (9) erzeugt wird, und eines Hindernis-Abstandssignals, welches einen Abstand des Fahrzeugs (9) von dem Hindernis angibt; und dass der Schritt des Ausgebens eines Feedbacksignals eines falschen Positivs ein Ausgeben des Feedbacksignals eines falschen Positivs in wenigstens einer der folgenden Situationen umfasst wenn die Feedback-Einheit (4) das Benachrichtigungssignal nicht empfängt, aber das Kollisionssignal empfängt, und wenn der Abstand des Fahrzeugs (9) von dem Zielobjekt kleiner ist als ein berechneter Bremsweg.
  17. Erfassungssystem für ein Zielobjekt nach Anspruch 16, ferner dadurch gekennzeichnet, dass in dem Schritt des Empfangens wenigstens eines Fahrzeugsignals das Fahrzeugsignal eine Fahrzeuggeschwindigkeit des Fahrzeugs (9) angibt; und dass in dem Schritt des Ausgebens des Feedbacksignals eines falschen Positivs der berechnete Bremsweg basierend auf wenigstens der Fahrzeuggeschwindigkeit berechnet wird.
  18. Erfassungssystem für ein Zielobjekt nach Anspruch 12, ferner dadurch gekennzeichnet, dass nach dem Schritt des Verwendens des Bildes als eine Trainingsprobe zum Trainieren von Parametern und vor dem Schritt des Aktualisierens der Parameter für schwache Klassifikatoren der Schritt des Durchführens einer Trainingsoperation ferner ein Berechnen eines Vertrauenswertes für die neuen Parameter für schwache Klassifikatoren umfasst; und dass der Schritt des Aktualisierens der Parameter für schwache Klassifikatoren umfasst ein Aktualisieren der Parameter für schwache Klassifikatoren der maschinellen Lerneinheit (3) unter Verwenden der neuen Parameter für schwache Klassifikatoren, wenn der so berechnete Vertrauenswert größer ist als ein Vertrauenswert der Parameter für schwache Klassifikatoren, und ein Senden der neuen Parameter für schwache Klassifikatoren an die Erfassungseinheit (2) zum Aktualisieren der Parameter für schwache Klassifikatoren der Erfassungseinheit.
DE102016226204.1A 2016-04-22 2016-12-23 Erfassungssystem für ein zielobjekt und ein verfahren zur erfassung eines zielobjekts Active DE102016226204B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW105112559 2016-04-22
TW105112559A TWI592883B (zh) 2016-04-22 2016-04-22 Image recognition system and its adaptive learning method

Publications (2)

Publication Number Publication Date
DE102016226204A1 true DE102016226204A1 (de) 2017-10-26
DE102016226204B4 DE102016226204B4 (de) 2019-03-07

Family

ID=60021326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016226204.1A Active DE102016226204B4 (de) 2016-04-22 2016-12-23 Erfassungssystem für ein zielobjekt und ein verfahren zur erfassung eines zielobjekts

Country Status (3)

Country Link
JP (1) JP6301440B2 (de)
DE (1) DE102016226204B4 (de)
TW (1) TWI592883B (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019127085A1 (en) * 2017-12-27 2019-07-04 Volkswagen (China) Investment Co., Ltd. Processing method, processing apparatus, control device and cloud server
US10467486B2 (en) 2017-12-29 2019-11-05 Automotive Research & Testing Center Method for evaluating credibility of obstacle detection
JP2019139316A (ja) * 2018-02-06 2019-08-22 国立大学法人 東京大学 識別システム、識別装置、識別方法及び識別プログラム
JP7198599B2 (ja) * 2018-06-28 2023-01-04 株式会社カーメイト 画像処理装置、画像処理方法、ドライブレコーダー
CN112386249B (zh) * 2019-08-14 2023-09-19 中移(苏州)软件技术有限公司 跌倒检测方法及装置、设备、存储介质
JP7308775B2 (ja) * 2020-02-12 2023-07-14 株式会社日立ハイテク 機械学習方法および機械学習用情報処理装置
US11390249B2 (en) 2020-08-05 2022-07-19 Ford Global Technologies, Llc Vehicle vision system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5115390B2 (ja) * 2008-08-04 2013-01-09 住友電気工業株式会社 移動体識別装置、コンピュータプログラム及び移動体識別装置の学習方法
JP5388291B2 (ja) * 2009-09-14 2014-01-15 住友電気工業株式会社 識別器生成方法、コンピュータプログラム、識別器生成装置及び所定物体検出装置
JP5401344B2 (ja) 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 車両用外界認識装置
JP2013152654A (ja) * 2012-01-26 2013-08-08 Toyota Central R&D Labs Inc 識別器、識別器構築装置、プログラム
US9776564B2 (en) 2012-12-25 2017-10-03 Honda Motor Co., Ltd. Vehicle periphery monitoring device

Also Published As

Publication number Publication date
TW201738806A (zh) 2017-11-01
JP2017194949A (ja) 2017-10-26
DE102016226204B4 (de) 2019-03-07
TWI592883B (zh) 2017-07-21
JP6301440B2 (ja) 2018-03-28

Similar Documents

Publication Publication Date Title
DE102016226204B4 (de) Erfassungssystem für ein zielobjekt und ein verfahren zur erfassung eines zielobjekts
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102018101318A1 (de) Objekterkennung unter verwendung eines rekurrenten neuronalen netzwerks und einer verketteten merkmalsabbildung
EP2951804B1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102015209112A1 (de) Objekterkennungsvorrichtung und Fahrzeug
DE102014105722A1 (de) Kollisionserfassungsvorrichtung und Kollisionsabschwächungsvorrichtung
DE102015205225A1 (de) Verfahren und Vorrichtung zum Erkennen eines Zielobjekts im toten Winkel eines Fahrzeugs
EP2585980A1 (de) Verfahren und system zur beschleunigten objekterkennung und/oder beschleunigten objektattributerkennung sowie verwendung des verfahrens
DE102020212799A1 (de) Durchführen von objekt- und aktivitätserkennung auf der grundlage von daten von einer kamera und einem radarsensor
DE102014112797A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102016212035A1 (de) Abstandsberechungsvorrichtung, Abstandsberechungsverfahren, Fahrunterstützungsvorrichtung und Fahrunterstützungssystem
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
DE102018128634A1 (de) Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102014109063A1 (de) Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
WO2020104551A1 (de) Objekterkennung mittels sensorsystem von fahrzeugen
DE102015218970A1 (de) Verfahren und System zum Vergleich von Eigenschaften eines Verkehrsteilnehmers
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
DE102017212175A1 (de) Verfahren und Vorrichtung zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz
DE102019211382A1 (de) System und Verfahren zur Verarbeitung von Umfeldsensordaten
DE112017001502T5 (de) Bewegungsspurerfassungsvorrichtung, Bewegungsobjekterfassungsvorrichtung und Bewegungsspurerfassungsverfahren
DE102015218967A1 (de) Verfahren und System zur Ermittlung und Nutzung von Eigenschaftszusammenhängen
DE102022002710A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000