DE102016122190A1 - Verfahren und Systeme zur Stixel-Schätzung - Google Patents

Verfahren und Systeme zur Stixel-Schätzung Download PDF

Info

Publication number
DE102016122190A1
DE102016122190A1 DE102016122190.2A DE102016122190A DE102016122190A1 DE 102016122190 A1 DE102016122190 A1 DE 102016122190A1 DE 102016122190 A DE102016122190 A DE 102016122190A DE 102016122190 A1 DE102016122190 A1 DE 102016122190A1
Authority
DE
Germany
Prior art keywords
radar
image data
stixels
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016122190.2A
Other languages
English (en)
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102016122190A1 publication Critical patent/DE102016122190A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Es werden Verfahren und Systeme zur Erfassung eines Objekts zur Verfügung gestellt. Bei einer Ausführungsform umfasst ein Verfahren: Empfangen, durch einen Prozessor, von Bilddaten von einem Bildsensor; Empfangen, durch einen Prozessor, von Radardaten von einem Radarsystem; Verarbeiten, durch den Prozessor, der Bilddaten von dem Bildsensor und der Radardaten von dem Radarsystem unter Verwendung eines Verfahrens zum tiefgehenden Lernen; und Erfassen, durch den Prozessor, eines Objekts auf Grundlage der Verarbeitung.

Description

  • QUERVERWEIS AUF ZUGEHÖRIGE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht den Zeitrang der provisorischen U. S.-Anmeldung Nr. 62/258,303, eingereicht am 20. November 2015.
  • TECHNISCHES GEBIET
  • Das technische Gebiet betrifft allgemein Systeme und Verfahren zur Erfassung von Objekten, und spezieller Objekt-Erfassungssysteme und zugehörige Verfahren, die einen Stixel oder mehrere in einer Szene schätzen, und Objekte auf Grundlage der geschätzten Stixel erfassen.
  • HINTERGRUND
  • Verschiedene Systeme verarbeiten Daten zur Erfassung von Objekten in der Nähe des Systems. So erfassen beispielsweise einige Fahrzeugsysteme Objekte in der Nähe zum Fahrzeug und verwenden die Information über das Objekt zum Alarmieren des Fahrers in Bezug auf das Vorhandensein des Objekts und/oder zum Steuern des Fahrzeugs. Die Fahrzeugsysteme erfassen das Objekt auf Grundlage von Sensoren, die um den Umfang des Fahrzeugs herum angeordnet sind. Es sind beispielsweise mehrere Kameras an der Rückseite, der Seite und/oder der Vorderseite des Fahrzeugs angeordnet, um Objekte zu erfassen. Bilder von den mehreren Kameras werden zur Erfassung des Objekts auf Grundlage von Stereo-Szenen verwendet. Das Implementieren mehrerer Kameras in einem Fahrzeug oder irgendeinem System erhöht die Gesamtkosten.
  • Es ist daher wünschenswert, Verfahren und Systeme zur Verfügung zu stellen, welche Objekte in einem Bild auf Grundlage einer einzigen Kamera erfassen. Darüber hinaus werden andere wünschenswerte Merkmale und Eigenschaften der vorliegenden Erfindung aus der nachfolgenden detaillierten Beschreibung und den beigefügten Ansprüchen deutlich werden, im Zusammenhang mit den beigefügten Zeichnungen und der voranstehenden Schilderung des technischen Gebiets und des Hintergrunds.
  • ZUSAMMENFASSUNG
  • Das Ziel der vorliegenden Erfindung wird durch den Gegenstand der unabhängigen Ansprüche erreicht; weitere Ausführungsformen sind in den abhängigen Ansprüchen angegeben.
  • Es werden Verfahren und Systeme zur Erfassung eines Objekts zur Verfügung gestellt. Bei einer Ausführungsform umfasst ein Verfahren: Empfangen, durch einen Prozessor, von Bilddaten von einem Bildsensor; Empfangen, durch einen Prozessor, von Radardaten von einem Radarsystem; Verarbeiten, durch den Prozessor, der Bilddaten von dem Bildsensor und der Radardaten von dem Radarsystem unter Verwendung eines Verfahrens zum tiefgehenden Lernen (deep learning); und Erfassen, durch den Prozessor, eines Objekts auf Grundlage der Verarbeitung.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die beispielhaften Ausführungsformen werden nachstehend im Zusammenhang mit den folgenden Zeichnungsfiguren beschrieben, in welchen gleiche Bezugszeichen gleiche Elemente angeben, wobei:
  • 1 eine Darstellung eines Fahrzeugs ist, welches ein Objekt-Erfassungssystem gemäß verschiedenen Ausführungsformen aufweist;
  • 2 ein Flussdiagramm ist, welches ein Objekt-Erfassungsverfahren erläutert, das von dem Objekt-Erfassungssystem gemäß verschiedenen Ausführungsformen durchgeführt werden kann; und
  • 36 Darstellungen von Bildszenen und Verarbeitungsverfahren gemäß verschiedenen Ausführungsformen sind.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende detaillierte Beschreibung ist nur als Beispiel zu verstehen und soll nicht die Anwendung und Einsätze einschränken. Darüber hinaus wird nicht angestrebt, durch irgendeine ausdrückliche oder implizierte Theorie eingeschränkt zu werden, die voranstehend bei dem technischen Gebiet, dem Hintergrund, der kurzen Zusammenfassung präsentiert wurde, oder in der folgenden, detaillierten Beschreibung. Es wird darauf hingewiesen, dass in den gesamten Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale bezeichnen. Der hier verwendete Begriff Modul betrifft eine anwendungsspezifische integrierte Schaltung (ASIC), eine Elektronikschaltung, einen Prozessor (geteilt, speziell, oder Gruppe) und einen Speicher, der ein oder mehrere Software- oder Firmware-Programme ausführt, eine Kombinationslogikschaltung, und/oder andere geeignete Komponenten, welche die geschilderte Funktionalität zur Verfügung stellen.
  • Es wird nunmehr Bezug auf 1 genommen, in welcher ein Fahrzeug 10 dargestellt ist, das ein Objekt-Erfassungssystem 12 gemäß verschiedenen Ausführungsformen aufweist. Das Objekt-Erfassungssystem 12 schätzt eine Stixel- und Freiraum-Darstellung einer äußeren Umgebung unter Verwendung von Eingaben von zwei oder mehr unterschiedlichen Sensoren, beispielsweise von einer einäugigen Kamera und einem Radarsystem. Es wird darauf hingewiesen, dass das gezeigte und beschriebene Objekt-Erfassungssystem 12 in verschiedenen Systemen implementiert sein kann, einschließlich nicht-mobiler Plattformen oder mobiler Plattformen, beispielsweise, jedoch nicht hierauf beschränkt, Automobile, Lastkraftfahrzeuge, Busse, Motorräder, Züge, Wasserfahrzeuge, Luftfahrzeuge, Hubschrauber, Roboter, Roboterplattformen und dergleichen. Als Beispiel wird die Offenbarung im Zusammenhang des Objekt-Erfassungssystems 12 diskutiert, das in dem Fahrzeug 10 implementiert ist. Obwohl die hier gezeigten Figuren ein Beispiel mit bestimmten Anordnungen von Elementen, zusätzlichen dazwischenliegenden Elementen, Geräten, Merkmalen, ein Beispiel mit bestimmten Anordnungen von Elementen zeigen, können bei tatsächlichen Ausführungsformen zusätzliche dazwischenliegende Elemente vorgesehen sein, Geräte, Merkmale, oder Komponenten. Weiterhin wird darauf hingewiesen, dass 1 nur zur Erläuterung dient, und nicht maßstabsgetreu sein muss.
  • Bei verschiedenen Ausführungsformen weist das Objekt-Erfassungssystem 12 einen Bildsensor 14 (beispielsweise eine Kamera oder ein anderes Bildabtastungsgerät) auf und ein Radarsystem 15, die einem Objekt-Erfassungsmodul 16 zugeordnet sind. Der Bildsensor 14 kann irgendwo innerhalb oder außerhalb des Fahrzeugs 10 angeordnet sein, einschließlich, jedoch nicht hierauf beschränkt, an einer Vorderseite des Fahrzeugs 10, an einer linken Seite des Fahrzeugs 10, an einer rechten Seite des Fahrzeugs 10, und an einer Rückseite des Fahrzeugs 10. Es wird darauf hingewiesen, dass mehrere Bildsensoren 14 auf dem Fahrzeug 10 implementiert sein können, jeweils einer für die Vorderseite des Fahrzeugs 10, die linke Seite des Fahrzeugs 10, die rechte Seite des Fahrzeugs 10, und die Rückseite des Fahrzeugs 10, oder jeweils einer für eine Kombination dieser Seiten. Zum Zwecke der Erläuterung wird die Offenbarung diskutiert in dem Zusammenhang des Fahrzeugs 10, welches nur einen Bildsensor 14 aufweist, der an der Vorderseite des Fahrzeugs 10 vorgesehen ist.
  • Der Bildsensor 14 tastet einen Bereich ab, der dem Fahrzeug 10 zugeordnet ist, und erzeugt auf dieser Grundlage Sensorsignale. Bei verschiedenen Ausführungsformen enthalten die Sensorsignale Bilddaten. Die Bilddaten stellen dann, wenn sie angeordnet sind, eine Szene dar, beispielsweise die Außenseite des Fahrzeugs 10. Das Radarsystem 15 kann überall innerhalb oder außerhalb des Fahrzeugs 10 angeordnet sein, einschließlich, jedoch nicht hierauf beschränkt, an einer Vorderseite des Fahrzeugs 10, einer linken Seite des Fahrzeugs 10, einer rechten Seite des Fahrzeugs 10, und einer Rückseite des Fahrzeugs 10. Es wird darauf hingewiesen, dass mehrere Radarsensoren 15 bei dem Fahrzeug 10 implementiert sein können, jeweils einer für die Vorderseite des Fahrzeugs 10, die linke Seite des Fahrzeugs 10, die rechte Seite des Fahrzeugs 10, und die Rückseite des Fahrzeugs 10, oder jeweils einer für eine Kombination dieser Seiten. Zum Zwecke der Erläuterung wird die Offenbarung in dem Zusammenhang des Fahrzeugs 10 diskutiert, welches nur ein Radarsystem 15 aufweist, das sich an der Vorderseite des Fahrzeugs 10 befindet.
  • Das Radarsystem 15 erzeugt Wellensignale entlang einem Weg oder mehrerer Wege und empfängt Wellensignale, die von dem Weg bzw. den Wegen reflektiert werden. Das Objekt-Erfassungsmodul 16 empfängt die Signale von dem Bildsensor 14 und dem Radarsystem 15, und verarbeitet die Signale, um ein Objekt zu erfassen. Das Objekt-Erfassungsmodul 16 erfasst das Objekt auf Grundlage von Verfahren und Systemen zur Bildverarbeitung gemäß der vorliegenden Offenbarung. Allgemein gesprochen, verarbeitet das Objekt-Erfassungsmodul 16 die Bilddaten unter Verwendung von Modellen zum tiefgehenden Lernen (deep learning), um Stixel in einer Szene zu bestimmen. Die Modelle zum tiefgehenden Lernen (deep learning) können, wobei sie nicht darauf beschränkt sind, neuronale Netzwerke wie etwa Faltungsnetzwerke umfassen, oder andere Modelle zum tiefgehenden Lernen, beispielsweise deep-belief-Netzwerke. Die Modelle zum tiefgehenden Lernen werden vortrainiert auf Grundlage einer Vielfalt von Abtastbilddaten.
  • Bei verschiedenen Ausführungsformen erzeugt das Objekt-Erfassungsmodul 16 selektiv Signale auf Grundlage der Erfassung des Objekts. Die Signale werden von einem Steuermodul 18 und/oder einem Alarmmodul 20 empfangen, um selektiv das Fahrzeug 10 zu steuern und/oder den Fahrer in Bezug auf das Objekt zu alarmieren und/oder um das Fahrzeug 10 zu steuern.
  • Es wird nunmehr Bezug auf sowohl 1 als auch 2 genommen, wobei 2 ein Flussdiagramm zeigt, welches ein Objekt-Erfassungsverfahren 100 erläutert, das von dem Objekt-Erfassungssystem 12 von 1 durchgeführt werden kann, gemäß verschiedenen Ausführungsformen. Aus der Offenbarung wird deutlich, dass die Reihenfolge der Operationen in dem Verfahren 100 nicht auf die aufeinanderfolgende Ausführung beschränkt ist, die in 2 dargestellt ist, sondern in einer oder mehreren variierenden Reihenfolge(n) je nach Anwendung durchgeführt werden kann, entsprechend der vorliegenden Offenbarung.
  • Weiterhin wird darauf hingewiesen, dass das Verfahren von 2 so getaktet sein kann, dass es in vorbestimmten Zeitintervallen während des Betriebs des Fahrzeugs 10 abläuft, und/oder so getaktet sein kann, dass es auf Grundlage vorbestimmter Ereignisse abläuft.
  • Bei einem Beispiel kann das Verfahren bei 105 beginnen. Bei 110 werden die Bilddaten von dem Bildsensor 14 sowie die Radardaten von dem Radarsystem 15 empfangen. Die Bilddaten werden bei 120 verarbeitet, um Stixel-Daten zu bestimmen. Beispielsweise werden, wie in den 3 und 4 gezeigt, die Bilddaten empfangen und wird aus diesen eine Szene ausgebildet. Ein Fenster eines interessierenden Bereichs (ROI) wird ausgebildet (also das schraffierte Rechteck von der obersten Zeile zur untersten Zeile, das nicht durch die Fahrzeugkarosserie (gezeigt in 3) verdeckt wird), als die Eingabeschicht zum Faltungsneuronalnetzwerk (CNN). Das CNN bestimmt, ob die Zentrumslinie des ROI einen Stixel enthält, und berichtet die Wahrscheinlichkeit, den Ort (rV, rV), die Höhe h, und die Klassenmarkierung I, zu welcher der Stixel gehört. Das ROI-Fenster wird im Bild von links nach rechts bewegt, um aufeinanderfolgend ein Vorhandensein von Stixeln für jeden ROI-Fensterort zu bestimmen.
  • Die markierten Daten werden dazu verwendet, den Stixel-Detektor unter Verwendung von CNN zu trainieren, welches automatisch eine Sichtmerkmalsdarstellung erzeugt.
  • In 2 verarbeitet bei 130 das Objekt-Erfassungsmodul 16 die Radardaten, um Radar-Vorhandenseinsvektoren zu bestimmen. Beispielsweise werden, wie in den 3 und 4 gezeigt, sämtliche Radarpunkte auf eine Bildebene projiziert. Die Bildebene wird in ROIs unterteilt, und die ROIs werden in vertikale Scheiben unterteilt, wobei jede vertikale Scheibe ein Stixel-Kandidat ist. Das Vorhandensein eines Radarpunktes wird in den Scheiben bestimmt, und der Zeilenindex wird dem entsprechenden Element in dem Vorhandensvektor zugeordnet. (Es wird darauf hingewiesen, dass der Standardwert für nicht vorhandene Elemente gleich Null ist).
  • In 2 verschmilzt bei 140 das Objekt-Erfassungsmodul 16 dann die Radarpunkte mit den identifizierten Stixeln in der Szene. Beispielsweise werden, wie in den 3 und 4 gezeigt, der Radar-Vorhandenseinsvektor und die Sichtmerkmalsdarstellung den klassisch vollständig verbundenen Schichten zur Verfügung gestellt, welche schließlich die Wahrscheinlichkeit für das Vorhandensein des Stixels ausgeben, sowie den Ort (rV), die Höhe (h) des Stixels, sowie den angepassten Radarpunkt (d). Wie in 5 gezeigt, werden Stixel in einem eindimensionalen Feld gespeichert, das durch die Spalte c indiziert ist. Unter der Voraussetzung, dass die Kamera kalibriert ist, kann ein Punkt p = (x, y) in der xy-Ebene auf einen Punkt in der Bildebene q = (r, c) in Einheiten von Bildpixeln abgebildet werden: q = H(p) und umgekehrt p = H–1(q). Jeder Stixel weist folgende Attribute auf:
    Spalte (Bild): c
    Zeile (Bild): r
    Höhe (Bild): h
    zweidimensionale Position in der xy-Ebene: p kann abgeleitet werden aus q = (r, c) und der zweidimensionalen Radarposition pR:
    Figure DE102016122190A1_0002
    wobei σV die Genauigkeit der Positionsmessung unter Verwendung von Signalen von der Stixel-Position ist, und σR die Genauigkeit der Positionsmessung unter Verwendung von Signalen vom Radar ist;
    Radar-Dopplermessung: d
  • Die Indices 0 und 1 bezeichnen die Attribute von demselben Pixel, geschätzt zum Zeitpunkt t0 und t1. Hieraus ergibt sich ein Zeitintervall Δt = t0 – t1.
  • In 2 bestimmt dann bei 150 das Objekt-Erfassungsmodul eine 2d-Geschwindigkeit in der xy-Ebene: v für jeden Stixel. Beispielsweise bezeichnet, wie in den 5 und 6 gezeigt, ohne Beeinträchtigung der Allgemeinheit, c1, c0 denselben Stixel von einem Objekt zur Zeit t1 und t0. Die Stixel-Bewegungsschätzung wird formuliert als die Zuordnung von Bewegung m (in Bildspalten) zum Stixel c1, so dass sich ergibt c1 = c0 + m. Sind der Stixel c1 und die Bewegungszuordnung m in Bezug auf den Stixel c0 des vorherigen Zeitrahmens gegeben, so ist die zweidimensionale Geschwindigkeit (v1, c1)) für den Stixel c1 das Minimum des quadratischen Ausdrucks: minL(c1, m) und
    Figure DE102016122190A1_0003
    wobei die Funktion H(v1, p1(c1)) die zweidimensionale Geschwindigkeit am Ort p1 (c1) in der xy-Ebene auf die Bildebene abbildet, und sich folgender optischer Flussvektor ergibt:
    Figure DE102016122190A1_0004
    wobei σD die Radar-Dopplergenauigkeit ist, und σV die Genauigkeit des optischen Flusses ist, für die Stixel in Einheiten von Pixeln. Daher ist die geschätzte zweidimensionale Geschwindigkeit eine Funktion der Bewegungszuordnung m, geschrieben als v1(c1, m).
  • In 2 bestimmt dann bei 160 und 170 das Objekt-Erfassungsmodul 16 die optimale Spaltenverschiebung im Pixel m·(c1) über eine Standard-Dynamikprogrammierminimierung, und bestimmt Objekte auf Grundlage der geschätzten Verschiebung. Beispielsweise sei C1 die Gruppe sämtlicher Spalten, welche gültige Stixel in dem Eingaberahmen enthalten. Das Minimierungsproblem besteht darin, folgende Gleichung zu lösen:
    Figure DE102016122190A1_0005
  • Die dynamische Programmierung wird in zwei Phasen durchgeführt. Die dynamische Programmiermatrix D wird so ausgebildet, dass die Spalten sämtliche geeignete Orte von Stixeln sind (also C1), und die Zeilen sämtliche geeignete Bewegungen sind (also M(c1) für c1 ∈ C1).
  • Zur Vereinfachung der Darstellung wird der Index bei dem momentanen Stixel c1 für die folgende Berechnung der dynamischen Programmiermatrix D ignoriert.
  • In dem ersten Durchgang wird D(c, m) rekursiv (von rechts nach links) folgendermaßen berechnet:
    Figure DE102016122190A1_0006
    wobei cmax der am weitesten rechts liegende Stixel in C1 ist.
  • Andernfalls gilt für sämtliche m ∈ M(c) und c ∈ C1. Zur Vereinfachung wird darauf hingewiesen, dass c den Stixel in der Spalte c im Zeitrahmen t1 bezeichnet. Die Stixel-Bewegungsschätzungen m(c) können durch Rückverfolgung in der zweiten Phase (von links nach rechts) ermittelt werden:
    Figure DE102016122190A1_0007
  • Bei verschiedenen Ausführungsformen können die Anpassungskosten eines Stixels c1 und c0 folgendermaßen sein:
    Figure DE102016122190A1_0008
    wobei hi(c) die Höhe, in Metern, des Stixels in der Spalte c auf dem Rahmen ti ist; a, b und γ Skalierungsparameter sind; di(c) die Dopplermessung, in der xy-Ebene, des Stixels in der Spalte x auf dem Rahmen ti ist. Die Gruppe M(c1) enthält die Verschiebung sämtlicher geeigneter Spalten des Stixels c1 in Bezug auf den vorhergehenden Zeitrahmen. Sie hängt von der Position des Stixels ab sowie von der Rahmenrate, mit welcher die Bilder aufgenommen werden. So ist beispielsweise für einen Stixel in der Nähe dessen entsprechender Wert |M(c1)| größer, und nimmt ab, wenn er sich weit entfernt von dem Bildsensor 14 bewegt. Der Term für die Kosten cnull ist der Standard-Kostenwert für nicht-gültige Bewegungen, in der voranstehenden Gleichung eingestellt auf den maximal möglichen Kostenwert. SAD(c1, m) ist die Summe pro Pixel von Absolutdifferenzen über RGB-Farbkanäle zwischen dem Stixel c1 bei t1 und dem Stixel c0 = c1 – m bei t0.
  • Bei verschiedenen Ausführungsformen können benachbarte Stixel entweder demselben Objekt oder getrennten Objekten entsprechen. Wenn die Stixel demselben Objekt entsprechen, sollten sie eine ähnliche Bewegung aufweisen: Reg(m(c1), m(c1 + 1)) = ks|m(c1) – m(c1 + 1)|.
  • Der Skalierungsfaktor ks hängt von der Ähnlichkeit der benachbarten Stixel (also c1 und c1 + 1) ab, die zu demselben Objekt gehören. ks ist groß, wenn Stixel c1 und c1 + 1 zum selben Objekt gehören, und ks ist klein, wenn sie zu unterschiedlichen Objekten gehören.
  • Bei verschiedenen Ausführungsformen können Objekte in einer Szene unterschiedliche Orientierungen in Bezug auf die Kamera aufweisen. Abhängig von der Objektorientierung können unterschiedliche Teile desselben Objekts unterschiedliche Tiefenwerte aufweisen. Es gibt jedoch eine räumliche Kontinuität bezüglich der Tiefe in kleinen Nachbarschaften des Objekts. Daher kann angenommen werden, dass Nachbar-Stixel innerhalb einer kleinen Nachbarschaft ähnliche Tiefenwerte aufweisen.
  • Stixel in einer kleinen Nachbarschaft, welche ähnliche Tiefenwerte aufweisen, können immer noch zu unterschiedlichen Objekten gehören (beispielsweise Fußgänger gegenüber Fahrzeug in einer Szene, in welcher ein Fußgänger nahe bei einem geparkten Fahrzeug steht). Für diesen Fall sind die semantischen Markierungen (beispielsweise Fußgänger, Fahrzeug, usw.) informative Hinweise zum Trennen von Stixeln in Bezug auf unterschiedliche Objekte.
  • Für Szenen von Kraftfahrzeuganwendungen stellen Radar-Dopplermessungen einen weiteren schwachen Hinweis dazu dar, Stixel auf Objekte zu unterteilen.
  • Daher ist folgendes Design für den Skalierungsfaktor möglich: ks = βx + βl + βd wobei
    Figure DE102016122190A1_0009
    (mit [depth cue] = Hinweis auf Tiefe; [semantic label cue] = Hinweis auf semantische Markierung; [Doppler cue] = Doppler-Hinweis)
    wobei x1(c1) die x-Koordinate des Stixels c1 in der xy-Ebene angibt, folgende Definition gilt
    Figure DE102016122190A1_0010
    und Δx und Δd maximal mögliche Differenzen für die Tiefe und Doppler für benachbarte Stixel entsprechend denselben Objekten sind.
  • Bei einer Ausführungsform sind vorgesehen ax = 0,1, al = 0,5, ad = 0,2, Δx = 3, Δd = 2, und sind kx, kl, und kd ähnlich normiert wie die Skalierungsparameter a, b, und γ in der Anpassungskostenfunktion.
  • Bei verschiedenen Ausführungsformen ist die Bewegung von Stixeln glatt für Kraftfahrzeugszenen. Daher kann über die räumliche Randbedingung hinaus die folgende zeitliche Randbedingung für den Stixel c1 hinzugefügt werden, um die Glattheit der Bewegung sicherzustellen: Temp(c1, m) = kt|v1(c1, m) – v0(c0)| wobei v1(c1, m) die zweidimensionale Geschwindigkeitsabschätzung ist, als vorgegebene Annahme für Bewegungszuordnung m zum Stixel, und kt der Gewichtsskalierungsfaktor ist.
  • Weiterhin wird ein Verfahren zur Erfassung eines Objekts zur Verfügung gestellt, bei welchem vorgesehen sind:
    Empfangen, durch einen Prozessor, von Bilddaten von einem Bildsensor;
    Empfangen, durch einen Prozessor, von Radardaten von einem Radarsystem;
    Verarbeiten, durch den Prozessor, der Bilddaten von dem Bildsensor und der Radardaten von dem Radarsystem unter Verwendung eines Verfahrens mit tiefgehendem Lernen (deep learning); und
    Erfassen, durch den Prozessor, eines Objekts auf Grundlage der Verarbeitung.
  • Bei einem Beispiel umfasst die Verarbeitung die Verarbeitung der Bilddaten zur Bestimmung eines Stixels oder mehrerer Stixel, wobei das Verfahren mit tiefgehendem Lernen den einen Stixel oder die mehreren Stixel verwendet.
  • Bei einem Beispiel umfasst die Verarbeitung:
    Ausbildung eines Fensters für einen interessierenden Bereich (ROI) eines Bildes auf Grundlage der Bilddaten; und Bewegung des ROI-Fensters zu mehreren Orten, von einer linken Seite des Bildortes zu einer rechten Seite des Bildes, um aufeinanderfolgend ein Vorhandensein eines Stixels an jedem Ort zu bestimmen.
  • Bei einem Beispiel umfasst die Verarbeitung:
    Ausbildung eines Fensters für einen interessierenden Bereich (ROI) auf Grundlage der Bilddaten;
    Bestimmung, ob eine Zentrumslinie des ROI-Fensters einen Stixel enthält, unter Einsatz eines Faltungsneuronalnetzwerks; und
    Berichten einer Wahrscheinlichkeit, eines Ortes, einer Höhe, und einer Klassenmarkierung, wenn ein Stixel bestimmt wird.
  • Bei einem Beispiel umfasst die Verarbeitung:
    Verarbeiten der Radardaten von dem Radarsystem zur Bestimmung eines oder mehrerer Vorhandenseinsvektoren, wobei das Verfahren zum tiefgehenden Lernen den einen oder die mehreren Vorhandenseinsvektor(en) verwendet.
  • Bei einem Beispiel umfasst die Verarbeitung das Verschmelzen von Stixeln der Bilddaten und von Vorhandenseinsvektoren der Radardaten unter Verwendung der Verfahren zum tiefgehenden Lernen.
  • Bei einem Beispiel umfasst das Verfahren weiterhin, eine Geschwindigkeit für jeden der verschmolzenen Stixel und Vorhandenseinsvektoren zu bestimmen, wobei die Erfassung des Objekts auf der Geschwindigkeit jedes der verschmolzenen Stixel und Vorhandenseinsvektoren beruht.
  • Bei einem Beispiel umfasst das Verfahren weiterhin die Bestimmung einer Verschiebung für jeden der verschmolzenen Stixel und Vorhandenseinsvektoren, wobei die Erfassung des Objekts auf der Verschiebung jedes der verschmolzenen Stixel und Vorhandenseinsvektoren beruht.
  • Weiterhin wird ein System zur Erfassung eines Objekts zur Verfügung gestellt, wobei vorgesehen sind:
    ein Bildsensor, der Bilddaten erzeugt;
    ein Radarsystem, welches Radardaten erzeugt; und
    ein Computermodul, das durch einen Prozessor die Bilddaten und die Radardaten verarbeitet, unter Verwendung eines Verfahrens zum tiefgehenden Lernen (deep learning), und ein Objekt auf Grundlage der Verarbeitung erfasst.
  • Bei einem Beispiel verarbeitet das Computermodul die Bilddaten zur Bestimmung eines Stixels oder mehrerer Stixel, wobei das Verfahren zum tiefgehenden Lernen den einen Stixel oder die mehreren Stixel verwendet.
  • Bei einem Beispiel bildet das Computermodul ein Fenster eines interessierenden Bereichs (ROI) eines Bildes auf Grundlage der Bilddaten; und bewegt das ROI-Fenster zu mehreren Orten, von einer linken Seite des Bildortes zu einer rechten Seite des Bildes, um aufeinanderfolgend ein Vorhandensein eines Stixels an jedem Ort zu bestimmen.
  • Bei einem Beispiel bildet das Computermodul ein Fenster für einen interessierenden Bereich (ROI) auf Grundlage der Bilddaten, bestimmt, ob eine Zentrumslinie des ROI-Fensters einen Stixel enthält, unter Verwendung eines Faltungsneuronalnetzwerks, und berichtet eine Wahrscheinlichkeit, einen Ort, eine Höhe, und eine Klassenmarkierung, wenn ein Stixel bestimmt wird.
  • Bei einem Beispiel verarbeitet das Computermodul die Radardaten von dem Radarsystem zur Bestimmung eines oder mehrerer Vorhandenseinsvektoren, und verwendet das Verfahren zum tiefgehenden Lernen den einen oder die mehreren Vorhandenseinsvektor(en).
  • Bei einem Beispiel verschmilzt das Computermodul Stixel der Bilddaten und Vorhandenseinsvektoren der Radardaten unter Verwendung der Verfahren zum tiefgehenden Lernen (deep learning).
  • Bei einem Beispiel bestimmt das Computermodul eine Geschwindigkeit für jeden der verschmolzenen Stixel und Vorhandenseinsvektoren, und erfasst das Objekt auf Grundlage der Geschwindigkeit jedes der verschmolzenen Stixel und Vorhandenseinsvektoren.
  • Bei einem Beispiel bestimmt das Computermodul eine Verschiebung für jeden der verschmolzenen Stixel und Vorhandenseinsvektoren, und erfasst das Objekt auf Grundlage der Verschiebung jedes der verschmolzenen Stixel und Vorhandenseinsvektoren.
  • Bei einem Beispiel sind der Bildsensor und das Radarsystem einem Fahrzeug zugeordnet, wobei das Steuermodul das Objekt in der Nähe des Fahrzeugs erfasst.
  • Es wird darauf hingewiesen, dass Ausführungsformen der Erfindung unter Bezugnahme auf unterschiedliche Gegenstände beschrieben werden. Insbesondere werden einige Ausführungsformen unter Bezugnahme auf Verfahrensansprüche beschrieben, wogegen andere Ausführungsformen unter Bezugnahme auf Vorrichtungsansprüche beschrieben werden. Allerdings wird ein Fachmann auf diesem Gebiet aus der voranstehenden und der folgenden Beschreibung erkennen, dass – falls nicht ausdrücklich anders angegeben – zusätzlich zu jeder Kombination von Merkmalen, die zu einer Art von Gegenstand gehören, auch jede Kombination zwischen Merkmalen, die zu unterschiedlichen Gegenständen gehören, von dieser Anmeldung offenbart sein soll. Allerdings können sämtliche Merkmale kombiniert werden, wobei Synergie-Effekte zur Verfügung gestellt werden, welche über die einfache Summierung der Merkmale hinausgehen.
  • Zwar wurde zumindest eine beispielhafte Ausführungsform in der voranstehenden detaillierten Beschreibung präsentiert, jedoch wird darauf hingewiesen, dass eine große Anzahl an Variationen vorhanden ist. Weiterhin wird darauf hingewiesen, dass die beispielhafte Ausführungsform oder beispielhafte Ausführungsformen nur Beispiele darstellen, und nicht den Umfang, die Einsetzbarkeit, oder die Konfiguration der Offenbarung auf irgendeine Art und Weise einschränken sollen. Stattdessen stellt die voranstehende, detaillierte Beschreibung Fachleuten auf diesem Gebiet eine bequeme Road-Map zum Implementieren der beispielhaften Ausführungsform oder der beispielhaften Ausführungsformen zur Verfügung. Es wird darauf hingewiesen, dass verschiedene Änderungen in Bezug auf die Funktion und Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung abzuweichen, wie sie in den beigefügten Ansprüchen und deren rechtlichen Äquivalenten angegeben ist.

Claims (10)

  1. Verfahren zur Erfassung eines Objekts, bei welchem vorgesehen sind: Empfangen, durch einen Prozessor, von Bilddaten von einem Bildsensor; Empfangen, durch einen Prozessor, von Radardaten von einem Radarsystem; Verarbeitung, durch den Prozessor, der Bilddaten von dem Bildsensor und der Radardaten von dem Radarsystem unter Verwendung eines Verfahrens zum tiefgehenden Lernen (deep learning); und Erfassung, durch den Prozessor, eines Objekts auf Grundlage der Verarbeitung.
  2. Verfahren nach Anspruch 1, bei welchem die Verarbeitung die Verarbeitung der Bilddaten zur Bestimmung eines Stixels oder mehrerer Stixel umfasst, und bei welchem das Verfahren zum tiefgehenden Lernen den einen Stixel oder die mehreren Stixel verwendet.
  3. Verfahren nach Anspruch 1 oder 2, bei welchem die Verarbeitung umfasst: Bildung eines Fensters eines interessierenden Bereichs (ROI) eines Bildes auf Grundlage der Bilddaten; und Bewegung des ROI-Fensters zu mehreren Orten, von einer linken Seite des Bildortes zu einer rechten Seite des Bildes, um aufeinanderfolgend ein Vorhandensein eines Stixels an jedem Ort zu bestimmen.
  4. Verfahren nach Anspruch 1 oder 2, bei welchem die Verarbeitung umfasst: Bildung eines Fensters eines interessierenden Bereichs (ROI) auf Grundlage der Bilddaten; Bestimmung, ob eine Zentrumslinie des ROI-Fensters einen Stixel enthält, unter Verwendung eines Faltungsneuronalnetzwerks; und Berichten einer Wahrscheinlichkeit, eines Orts, einer Höhe, und einer Klassifizierungsmarkierung, wenn ein Stixel festgestellt wird.
  5. Verfahren nach einem der voranstehenden Ansprüche, bei welchem die Verarbeitung umfasst: Verarbeitung der Radardaten von dem Radarsystem zur Bestimmung eines oder mehrerer Vorhandenseinsvektoren, wobei das Verfahren zum tiefgehenden Lernen den einen oder die mehreren Vorhandenseinsvektor(en) verwendet.
  6. Verfahren nach einem der voranstehenden Ansprüche, bei welchem die Verarbeitung umfasst, Stixel der Bilddaten und Vorhandenseinsvektoren der Radardaten unter Verwendung der Verfahren zum tiefgehenden Lernen zu verschmelzen.
  7. Verfahren nach Anspruch 6, welches weiterhin umfasst, eine Geschwindigkeit für jeden der verschmolzenen Stixel und Vorhandenseinsvektoren zu bestimmen, wobei die Erfassung des Objekts beruht auf der Geschwindigkeit jedes der verschmolzenen Stixel und Vorhandenseinsvektoren.
  8. Verfahren nach Anspruch 6 oder 7, welches weiterhin umfasst, eine Verschiebung für jeden der verschmolzenen Stixel und Vorhandenseinsvektoren zu bestimmen, wobei die Erfassung des Objekts beruht auf der Verschiebung jedes der verschmolzenen Stixel und Vorhandenseinsvektoren.
  9. System zur Erfassung eines Objekts, wobei vorgesehen sind: ein Bildsensor, welcher Bilddaten erzeugt; ein Radarsystem, welches Radardaten erzeugt; und ein Computermodul, das durch einen Prozessor die Bilddaten und die Radardaten unter Verwendung eines Verfahrens zum tiefgehenden Lernen verarbeitet, und ein Objekt auf Grundlage der Verarbeitung erfasst.
  10. System nach Anspruch 9, bei welchem das Computermodul die Bilddaten zur Bestimmung eines Stixels oder mehrerer Stixel verarbeitet, wobei das Verfahren zum tiefgehenden Lernen den einen Stixel oder die mehreren Stixel verwendet.
DE102016122190.2A 2015-11-20 2016-11-18 Verfahren und Systeme zur Stixel-Schätzung Pending DE102016122190A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562258303P 2015-11-20 2015-11-20
US62/258,303 2015-11-20
US15/353,359 US10482331B2 (en) 2015-11-20 2016-11-16 Stixel estimation methods and systems
US15/353,359 2016-11-16

Publications (1)

Publication Number Publication Date
DE102016122190A1 true DE102016122190A1 (de) 2017-05-24

Family

ID=58693748

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016122190.2A Pending DE102016122190A1 (de) 2015-11-20 2016-11-18 Verfahren und Systeme zur Stixel-Schätzung

Country Status (3)

Country Link
US (1) US10482331B2 (de)
CN (1) CN107038723B (de)
DE (1) DE102016122190A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018202244A1 (de) 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
US11676488B2 (en) 2019-10-11 2023-06-13 Aptiv Technologies Limited Method and system for determining an attribute of an object at a pre-determined time point
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data
US11941509B2 (en) 2020-02-27 2024-03-26 Aptiv Technologies AG Method and system for determining information on an expected trajectory of an object

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2562924B (en) * 2015-12-14 2021-05-19 Motion Metrics Int Corp Method and apparatus for identifying fragmented material portions within an image
US20180290590A1 (en) * 2017-04-07 2018-10-11 GM Global Technology Operations LLC Systems for outputting an alert from a vehicle to warn nearby entities
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11042155B2 (en) * 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles
CN109670409B (zh) * 2018-11-28 2022-10-21 浙江大学 一种语义棒状像素的场景表示系统及方法
US11009591B2 (en) * 2019-02-01 2021-05-18 GM Global Technology Operations LLC Deep learning for de-aliasing and configuring a radar system
US11204417B2 (en) 2019-05-08 2021-12-21 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
US11436876B2 (en) * 2019-11-01 2022-09-06 GM Global Technology Operations LLC Systems and methods for diagnosing perception systems of vehicles based on temporal continuity of sensor data
KR20210106864A (ko) 2020-02-20 2021-08-31 삼성전자주식회사 레이더 신호에 기초한 오브젝트 검출 방법 및 장치
US11709260B2 (en) * 2021-04-30 2023-07-25 Zoox, Inc. Data driven resolution function derivation

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912986A (en) * 1994-06-21 1999-06-15 Eastman Kodak Company Evidential confidence measure and rejection technique for use in a neural network based optical character recognition system
US5542006A (en) * 1994-06-21 1996-07-30 Eastman Kodak Company Neural network based character position detector for use in optical character recognition
DE19546506A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
US6028956A (en) * 1997-04-04 2000-02-22 Kofile Inc. Object location and span determination method and apparatus which determines a location and span of an object in an image
JP4308381B2 (ja) * 1999-09-29 2009-08-05 富士通テン株式会社 周辺監視センサ
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
WO2009142758A1 (en) * 2008-05-23 2009-11-26 Spectral Image, Inc. Systems and methods for hyperspectral medical imaging
US9117133B2 (en) * 2008-06-18 2015-08-25 Spectral Image, Inc. Systems and methods for hyperspectral imaging
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
DE102009009047A1 (de) * 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
JP4807444B2 (ja) * 2009-07-09 2011-11-02 株式会社デンソー 制御対象物抽出装置および車両制御装置
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US8102306B2 (en) * 2010-05-13 2012-01-24 The United States Of America As Represented By The Secretary Of The Navy Active-radar-assisted passive composite imagery for aiding navigation or detecting threats
US8704887B2 (en) * 2010-12-02 2014-04-22 GM Global Technology Operations LLC Multi-object appearance-enhanced fusion of camera and range sensor data
US20120287031A1 (en) * 2011-05-12 2012-11-15 Apple Inc. Presence sensing
JP6176028B2 (ja) * 2013-09-26 2017-08-09 株式会社デンソー 車両制御システム、画像センサ
JP2013031054A (ja) * 2011-07-29 2013-02-07 Ricoh Co Ltd 撮像装置及びこれを備えた物体検出装置、並びに、光学フィルタ及びその製造方法
US9187099B2 (en) * 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
US9563199B1 (en) * 2013-11-27 2017-02-07 Google Inc. Assisted perception for autonomous vehicles
US9664784B2 (en) * 2013-12-04 2017-05-30 Trimble Inc. System and methods for data point detection and spatial modeling
US9417911B2 (en) * 2014-03-12 2016-08-16 Live Planet Llc Systems and methods for scalable asynchronous computing framework
CN104197897B (zh) * 2014-04-25 2017-01-04 厦门大学 一种基于车载激光扫描点云的城区道路标线自动分类方法
US9195904B1 (en) * 2014-05-08 2015-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for detecting objects in stereo images
US9630318B2 (en) * 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
CN104459668B (zh) * 2014-12-03 2017-03-29 西安电子科技大学 基于深度学习网络的雷达目标识别方法
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
CN104931977B (zh) * 2015-06-11 2017-08-25 同济大学 一种用于智能车辆的障碍物识别方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018202244A1 (de) 2018-02-14 2019-08-14 Robert Bosch Gmbh Verfahren zur Abbildung der Umgebung eines Fahrzeugs
WO2019158450A1 (de) 2018-02-14 2019-08-22 Robert Bosch Gmbh Verfahren zur abbildung der umgebung eines fahrzeugs
US11935250B2 (en) 2018-04-18 2024-03-19 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for processing sensor data
US11676488B2 (en) 2019-10-11 2023-06-13 Aptiv Technologies Limited Method and system for determining an attribute of an object at a pre-determined time point
US11941509B2 (en) 2020-02-27 2024-03-26 Aptiv Technologies AG Method and system for determining information on an expected trajectory of an object

Also Published As

Publication number Publication date
CN107038723B (zh) 2020-09-11
US10482331B2 (en) 2019-11-19
US20170147888A1 (en) 2017-05-25
CN107038723A (zh) 2017-08-11

Similar Documents

Publication Publication Date Title
DE102016122190A1 (de) Verfahren und Systeme zur Stixel-Schätzung
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
DE112009001727B4 (de) Bildverarbeitungsvorrichtung zum Berechnen eines optischen Flusses
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
DE102013205952B4 (de) Rekonfigurierbares System und Verfahren zur Detektion eines freien Pfads
DE202017007675U1 (de) Computerprogrammprodukt mit einem Computerprogramm zur Verarbeitung von visuellen Daten einer Straßenoberfläche
DE102017203344A1 (de) Erfassen von langen objekten durch sensorfusion
DE102018121008B4 (de) System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE112018006738B4 (de) Vorrichtung zur detektion fallender objekte, fahrzeuginternes system, fahrzeug und programm zur detektion fallender objekte
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102012209316A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
DE112018004835T5 (de) Kollisionsvorhersagevorrichtung, Kollisionsvorhersageverfahren und Programm
DE112019001542T5 (de) Positionsschätzvorrichtung
DE102013227222A1 (de) Gerät und Verfahren für das Extrahieren eines Merkmalpunktes zum Erkennen eines Hindernisses, wobei ein Laserscanner benutzt wird
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102015115789B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung eines bilds
DE102016218853A1 (de) Detektion und Validierung von Objekten aus Bildern einer Kamera
DE112021004200T5 (de) Objekterkennungsvorrichtung
DE102011118171A1 (de) Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten
DE102009028742A1 (de) Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
DE102014201409A1 (de) Parkplatz - trackinggerät und verfahren desselben
WO2016096446A1 (de) Vordergrund-hintergrund differenzierung im fahrzeug

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R012 Request for examination validly filed