DE102015106459A1 - System und verfahren zur auswertung von daten - Google Patents

System und verfahren zur auswertung von daten Download PDF

Info

Publication number
DE102015106459A1
DE102015106459A1 DE102015106459.6A DE102015106459A DE102015106459A1 DE 102015106459 A1 DE102015106459 A1 DE 102015106459A1 DE 102015106459 A DE102015106459 A DE 102015106459A DE 102015106459 A1 DE102015106459 A1 DE 102015106459A1
Authority
DE
Germany
Prior art keywords
score
identifying
attributes
vertical edge
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015106459.6A
Other languages
English (en)
Inventor
Andreas U. Kuehnle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bendix Commercial Vehicle Systems LLC
Original Assignee
Bendix Commercial Vehicle Systems LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bendix Commercial Vehicle Systems LLC filed Critical Bendix Commercial Vehicle Systems LLC
Publication of DE102015106459A1 publication Critical patent/DE102015106459A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein Verfahren zum Identifizieren eines besten Elements aus einer Mehrzahl von jeweils unterschiedlichen Elementen umfasst das Auswählen einer aktuellen Bestwertung, das Identifizieren eines mit jedem der Elemente assoziierten Satzes von Attributen und für jeden der Sätze von Attributen: Bestimmen einer bestmöglichen Wertung für einen Teilsatz des Satzes von Attributen, wenn die bestmögliche Wertung größer als die aktuelle Bestwertung ist, Bestimmen einer tatsächlichen Wertung für den Satz von Attributen und, wenn die tatsächliche Wertung für den Satz von Attributen größer als die aktuelle Bestwertung ist, Einstellen der aktuellen Bestwertung als die tatsächliche Wertung für den Satz von Attributen. Nach den beiden Bestimmungsschritten und dem Einstellungsschritt für jeden der Sätze von Attributen wird das mit der aktuellen Bestwertung assoziierte Element identifiziert.

Description

  • Hintergrund
  • Die vorliegende Erfindung bezieht sich auf die Auswertung von Bilddaten zur Identifizierung eines Objekts. Sie findet insbesondere in Verbindung mit der Verringerung des zur Identifizierung des Objekts nötigen Berechnungs- und Zeitaufwands Anwendung und wird unter besonderer Berücksichtigung davon beschrieben. Es versteht sich jedoch, dass die Erfindung auch für andere Anwendungen geeignet ist.
  • Zur Auswertung von Bildern verwendete Algorithmen können sehr rechenintensiv sein. Die Verringerung der Anzahl von Berechnungen bei gleichzeitiger Aufrechterhaltung der Bilderkennungsqualität trägt dazu bei, die Menge an Zeit, Verarbeitungsleistung des Rechners und Computerhardware zu reduzieren, die zur Auswertung und Verarbeitung von Bildern erforderlich ist. Einige der Techniken zum Verringern der Anzahl von Berechnungen und der Zeit für die Auswertung von Bildern beinhalten die Feststellung, wann genügend Berechnungen durchgeführt wurden, um weitere Berechnungen zu vermeiden, die möglicherweise nicht wesentlich zur Bilderkennungsqualität beitragen. Einige der derzeitigen Techniken zur Verringerung der Anzahl von Berechnungen beinhalten jedoch typischerweise zumindest eine teilweise Auswertung aller Attribute eines Bildes und können zudem mehrere Prozessoren zur unabhängigen Auswertung verschiedener Teile und/oder Attribute eines Bildes erfordern.
  • Die vorliegende Erfindung stellt eine neue und verbesserte Vorrichtung und ein neues und verbessertes Verfahren bereit, welche die oben beschriebenen Probleme lösen.
  • Zusammenfassung
  • In einer Ausführungsform umfasst ein Verfahren zum Identifizieren eines besten Elements aus einer Mehrzahl von jeweils unterschiedlichen Elementen das Auswählen einer aktuellen Bestwertung, das Identifizieren eines mit jedem der Elemente assoziierten Satzes von Attributen und für jeden der Sätze von Attributen: Bestimmen einer bestmöglichen Wertung für einen Teilsatz des Satzes von Attributen, wenn die bestmögliche Wertung größer als die aktuelle Bestwertung ist, Bestimmen einer tatsächlichen Wertung für den Satz von Attributen und ob die tatsächliche Wertung für den Satz von Attributen größer als die aktuelle Bestwertung ist, Einstellen der aktuellen Bestwertung als die tatsächliche Wertung für den Satz von Attributen. Nach den beiden Bestimmungsschritten und dem Einstellungsschritt für jeden der Sätze von Attributen wird das mit der aktuellen Bestwertung assoziierte Element identifiziert.
  • Kurzbeschreibung der Zeichnungen
  • In den beigefügten Zeichnungen, die in die Patentschrift aufgenommen sind und einen Bestandteil davon bilden, werden Ausführungsformen der Erfindung veranschaulicht, die zusammen mit einer oben aufgeführten allgemeinen Beschreibung der Erfindung und der untenstehenden detaillierten Beschreibung der Erläuterung der Ausführungsformen dieser Erfindung dienen.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs, umfassend ein System gemäß einer Ausführungsform einer Vorrichtung, welche die Prinzipien der vorliegenden Erfindung veranschaulicht;
  • 2 zeigt eine schematische Darstellung von eine Fahrzeugposition definierenden Kanten gemäß einer Ausführungsform einer Vorrichtung, welche die Prinzipien der vorliegenden Erfindung veranschaulicht;
  • 3 zeigt eine graphische Darstellung von in einer Fahrzeugposition vorkommenden Kantensegmenten gemäß einer Ausführungsform einer Vorrichtung, welche die Prinzipien der vorliegenden Erfindung veranschaulicht;
  • 4 ist eine beispielhafte Methodik zum Auswerten von Bilddaten gemäß einer Ausführungsform, welche die Prinzipien der vorliegenden Erfindung veranschaulicht;
  • 4a ist eine beispielhafte Methodik von Schritt 1034 aus 4 gemäß einer Ausführungsform, welche die Prinzipien der vorliegenden Erfindung veranschaulicht;
  • 5 zeigt eine schematische Darstellung von ein Fahrzeug definierenden Kanten gemäß einer anderen Ausführungsform einer Vorrichtung, welche die Prinzipien der vorliegenden Erfindung veranschaulicht;
  • Die 6a und 6b sind eine beispielhafte Methodik zum Auswerten von Bilddaten gemäß der Ausführungsform aus 5, welche die Prinzipien der vorliegenden Erfindung veranschaulicht; und
  • 7 zeigt eine schematische Darstellung eines Computersystems gemäß einer Ausführungsform einer Vorrichtung, welche die Prinzipien der vorliegenden Erfindung veranschaulicht.
  • Detaillierte Beschreibung der veranschaulichten Ausführungsform
  • 1 zeigt ein Beispiel für ein Fahrzeug 100, das mit einem bildgestützten Fahrzeugerkennungs- und Abstandsmesssystem 102 ausgestattet ist. Das bildgestützte Fahrzeugerkennungs- und Abstandsmesssystem 102 umfasst einen Bildempfänger 104 und ein Fahrzeugerkennungs- und Messmodul 106, das mit dem Bildempfänger 104 verbunden ist. In der veranschaulichten Ausführungsform handelt es sich bei dem Bildempfänger 104 um eine Kamera. Es versteht sich jedoch, dass eine beliebige geeignete Bildaufnahmevorrichtung von dem bildgestützten Fahrzeugerkennungs- und Abstandsmesssystem 102 verwendet werden kann. Das Fahrzeugerkennungs- und Messmodul 106 enthält Logik zum Durchführen der hier beschriebenen Funktionalität.
  • Das Verarbeitungsmodul 106 zur bildgestützten Fahrzeugerkennung und Abstandsmessung erkennt Objekte (z. B. ein sich voraus befindendes Fahrzeug 108) und misst den Abstand auf Grundlage von Kantensegmenten und dunklen Bildpunkten während des Tages und hellen Bereichen bei Nacht. Die Kanten und dunklen Bildpunkte werden zu U- oder H-Formen zusammengesetzt, welche die Grenze eines Fahrzeugs umgeben. Regeln beschreiben die zulässigen Formen, durch die Fahrzeuge vom Hintergrund getrennt werden. Nachts beschreiben Regeln die Paarung der hellen Bereiche und identifizieren das linke und rechte Rücklicht der Fahrzeuge, um die Fahrzeuge vom Hintergrund zu trennen. Die Entfernung bis zum Fahrzeug kann anhand eines flachen Straßenmodells oder des Verhältnisses zwischen der Fahrzeugbreite in dem Bild und dem Abstand geschätzt werden. Ein Schema aus pyramidenartig in der Auflösung reduzierten Bildern kann verwendet werden, um in etwa konstante Verarbeitungszeiten unabhängig von der Fahrzeuggröße aufrechtzuerhalten.
  • Mit Bezug auf 2 werden Kanten aus Positionen von zusammenhängenden wesentlichen Gradienten identifiziert. Es werden dunkle Bildbereiche lokalisiert. Ein Prozessor 110 (siehe 1) identifiziert U-Formen und H-Formen basierend auf den Bilddaten 130 (siehe 3), die vom Bildempfänger 104 erfasst werden. Beispielsweise kann das Fahrzeug 100 basierend auf einer U-Form lokalisiert werden, die durch zwei (2) vertikale Kanten 120, 122 (z. B. eine linke vertikale Kante 120 und eine rechte vertikale Kante 122) und eine erste horizontale Kante 124 des sich voraus befindenden Fahrzeugs 108 definiert wird. Alternativ dazu kann das Fahrzeug 100 basierend auf einer H-Form identifiziert werden, die durch die zwei (2) vertikalen Kanten 120, 122 und eine zweite horizontale Kante 126 definiert wird.
  • Es ist wünschenswert, potenzielle Kanten auszuwerten, um die besten von zwei (2) vertikalen Kanten und einer horizontalen Kante zur Lokalisierung eines Fahrzeugs sowohl auf schnelle Weise und unter Verwendung einer relativ geringeren Menge von Rechenressourcen zu identifizieren. Daher ermöglicht eine Ausführungsform der vorliegenden Erfindung, dass Bilddaten effizient ausgewertet und Kanten charakterisiert werden, die ein Fahrzeug definieren, und die Daten nur solange ausgewertet werden, wie dies notwendig ist, um die besten zwei (2) vertikalen Kanten und eine horizontale Kante, welche ein Fahrzeug definieren, zu identifizieren. Wenn festgestellt wird, dass derzeit ausgewertete Kanten ein Fahrzeug nicht so gut definieren und/oder ein Fahrzeug nicht so gut modellieren wie zuvor ausgewertete Kantensätze, bricht der Vorgang die Auswertung der aktuellen Kanten ab und fährt mit der Auswertung der verbleibenden Kantenkombinationen fort, wodurch Verarbeitungszeit und -ressourcen gespart werden.
  • Mit Bezug auf 3 können die Bilddaten 130 des sich voraus befindenden Fahrzeugs 108 (siehe 1 und 2) als eine Mehrzahl von Bildpunkten 132 dargestellt werden. Jeder der Bildpunkte 132 steht für ein aufrufbares Element (z. B. ein Datum) in den Bilddaten 130. Typische Bilddaten 130 umfassen 256 Bildpunkte entlang der x-Achse und 256 Bildpunkte entlang der y-Achse. Zur besseren Veranschaulichung sind nicht alle diese Bildpunkte in 3 dargestellt. Beispielsweise sind, obwohl die Bilddaten 130 jeweils 256 Bildpunkte entlang der x-Achse und der y-Achse umfassen können, nur dreißig (30) Bildpunkte 132 entlang der x-Achse dargestellt und neununddreißig (39) Bildpunkte 132 entlang der y-Achse dargestellt. Daher umfassen die Bilddaten 130 des in 3 dargestellten sich voraus befindenden Fahrzeugs 108 die Bildpunkte 132 1-30,1-39.
  • Jeder der Bildpunkte 132 ist entweder „dunkel” oder „hell”. Zu Erörterungszwecken sei angenommen, dass die dunklen Bildpunkte Positionen repräsentieren, an denen (ein) Objekt(e) (z. B. die Kanten 120, 122, 126 (siehe 2)) des sich voraus befindenden Fahrzeugs 108 (siehe 2)) und/oder Schatten in den Bilddaten 130 erkannt werden, und dass die hellen Bildpunkte Positionen repräsentieren, an denen kein Objekt (z. B. eine Kante oder ein Schatten eines Fahrzeugs) in den Bilddaten 130 erkannt wird.
  • Ein Bildpunkt ist „dunkel”, wenn er zumindest über einen vorbestimmten Kontrast im Vergleich zu wenigstens einem benachbarten Bildpunkt verfügt. Beispielsweise liegen Graustufen typischerweise im Bereich von null (0) bis 255, wobei null (0) für Schwarz steht und 255 für Weiß steht. In einer Ausführungsform besteht der identifizierte vorbestimmte Kontrast zum Bestimmen, ob ein Bildpunkt dunkel ist, darin, dass eine Differenz von wenigstens acht (8) zwischen den Grauwerten des Bildpunkts und des wenigstens einen benachbarten Bildpunkts vorhanden ist. Somit beträgt, wenn der Bildpunkt einen Grauwert von 100 aufweist und der wenigstens eine benachbarte Bildpunkt einen Grauwert von 90 aufweist, die Differenz zwischen den Grauwerten 10 (100 – 90). In einer Ausführungsform werden Bildpunkte mit Grauwerten kleiner als etwa 50 ebenfalls als dunkel angesehen, da es sich bei diesen Bildpunkten z. B. um eine durch einen Schatten verdeckte Kante handeln kann. Zu Erörterungszwecken sind in 3 nur Bildpunkte 132 mit Grauwerten von entweder null (0) oder 256 dargestellt. Konkret werden die Bildpunkte 132 mit einem Grauwert von null (0) (d. h. die dunklen Bildpunkte) in 3 als gefüllt dargestellt (siehe z. B. die Bildpunkte 132 3-5,8) und werden die Bildpunkte 132 mit einem Grauwert von 256 (d. h. die hellen Bildpunkte) in 3 als ungefüllt dargestellt (siehe z. B. die Bildpunkte 132 3-5,7)
  • Mit Bezug auf die 1, 3 und 4 wird ein Verfahren zum Analysieren von Daten zur Identifizierung von Kombinationen der Daten, die eine minimal zulässige Wertung erfüllen, dargestellt. Bilddaten, die eine Mehrzahl von Bildpunkten eines Bildes umfassen, werden im Prozessor 110 empfangen und Attribute der Daten identifiziert. Für jeden der Bildpunkte steht ein entsprechendes Bildpunktdatum. Ein Attribut des sich voraus befindenden Fahrzeugs 108 (siehe 2) kann ein Füllgrad einer Kante des sich voraus befindenden Fahrzeugs 108 sein. In diesem Fall kann ein Satz der Attribute des sich voraus befindenden Fahrzeugs 108 einen Satz von Füllgraden von Kanten umfassen. Beispielsweise kann ein Satz von Füllgraden von Kanten des sich voraus befindenden Fahrzeugs 108 Füllgrade für drei (3) Kanten umfassen, die eine U-förmige Repräsentation des sich voraus befindenden Fahrzeugs 108 definieren. Es wird in Betracht gezogen, dass es sich bei den drei (3) Kanten, die zur Definition der U-förmigen Repräsentation des sich voraus befindenden Fahrzeugs 108 verwendet werden, um die erste horizontale Kante 124 und die zwei (2) vertikalen Kanten 120, 122 handelt. In diesem Fall wird jeder der Füllgrade der Kanten 124, 120, 122 als eine Komponente des Satzes von Attributen bezeichnet. Zu Erörterungszwecken wird der Füllgrad der horizontalen Kante 124 als erste Komponente bezeichnet, wird der Füllgrad der linken vertikalen Kante 120 als zweite Komponente bezeichnet und wird der Füllgrad der rechten vertikalen Kante 122 als dritte Komponente bezeichnet.
  • In einer Ausführungsform werden die Zeilen der Bildpunkte 132 von links nach rechts in einem Schritt 1000 ausgewertet, um horizontale Segmente zu identifizieren, die später als potenzielle horizontale Kanten definiert werden können. Beispielsweise wird eine potenzielle horizontale Kante als ein horizontales Segment identifiziert, das zumindest eine vorbestimmte Anzahl von horizontalen zusammenhängenden Bildpunkten umfasst, die als „dunkel” (z. B. sichtbar) in einer Zeile der Bilddaten 130 erscheinen. In einer Ausführungsform beträgt die vorbestimmte Mindestanzahl von zusammenhängenden horizontalen Bildpunkten, die zur Identifizierung einer potenziellen horizontalen Kante erforderlich ist, drei (3) Bildpunkte. Während des Schritts 1000 wird die erste Bildpunktzeile 132 1-256,1 (z. B. 132 1-30,1, wie in 3 dargestellt) abgetastet, um horizontale Segmente zu identifizieren. Wenn keine horizontalen Segmente identifiziert werden, wird die nächste (z. B. zweite) Bildpunktzeile 132 1-256,2 (z. B. 132 1-30,2, wie in 3 dargestellt) abgetastet. In dem veranschaulichten Beispiel werden keine potenziellen horizontalen Segmente identifiziert, bis Zeile acht (8) der Bildpunkte 132 1-256,8 (z. B. 132 1-30,8, wie in 3 dargestellt) abgetastet wird. Vier (4) potenzielle horizontale Segmente 136 1, 136 2, 136 3, 136 4 werden in der Bildpunktzeile 132 1-256,8 (z. B. 132 1-30,8, wie in 3 dargestellt) identifiziert. Das potenzielle horizontale Segment 136 1 wird als Bildpunkte 132 3-5,8 identifiziert; das potenzielle horizontale Segment 136 2 wird als Bildpunkte 132 11-16,8 identifiziert; das potenzielle horizontale Segment 136 3 wird als Bildpunkte 132 25-27,8 identifiziert und das potenzielle horizontale Segment 136 4 wird als Bildpunkt 132 19,8 identifiziert. Zu Erörterungszwecken sind nur vier (4) potenzielle horizontale Segmente 136 1, 136 2, 136 3, 136 4 in den Bilddaten 130 dargestellt. Es versteht sich jedoch, dass eine beliebige Anzahl von horizontalen Segmenten in einer jeden der Zeilen in den Bilddaten 130 enthalten sein kann.
  • Jedes der horizontalen Segmente 136 1, 136 2, 136 3, 136 4 wird in einem Schritt 1002 ausgewertet, um festzustellen, welches der horizontalen Segmente, sofern vorhanden, zumindest die vorbestimmte Anzahl von horizontalen zusammenhängenden Bildpunkten enthält und damit als potenzielle horizontale Kanten identifiziert wird. In dem veranschaulichten Beispiel wird das erste horizontale Segment 136 1 als die Bildpunkte 132 3-5,8 identifiziert, was drei (3) horizontale Bildpunkte (d. h. die Bildpunkte 3–5 in Zeile 8) umfasst. Konkret wird, da das erste horizontale Segment 136 1 die Bildpunkte 3–5 (d. h. drei (3) Bildpunkte) in einer horizontalen Zeile enthält, das erste horizontale Segment 136 1 als eine potenzielle horizontale Kante identifiziert. Das zweite und dritte horizontale Segment 136 2, 136 3 enthalten ebenfalls zumindest die vorbestimmte Anzahl von horizontalen zusammenhängenden Bildpunkten und werden daher als potenzielle horizontale Kanten identifiziert. Konkret enthält das zweite horizontale Segment 136 2 sechs (6) Bildpunkte und enthält das dritte horizontale Segment 136 3 drei (3) Bildpunkte. Das vierte horizontale Segment 136 4 enthält jedoch nur einen (1) zusammenhängenden horizontalen Bildpunkt und wird daher in Schritt 1002 nicht als horizontale Kante identifiziert. Somit wird in dem veranschaulichten Beispiel in Schritt 1002 jedes der horizontalen Segmente 136 1, 136 2, 136 3 als entsprechende potenzielle horizontale Kanten identifiziert, während das horizontale Segment 136 4 nicht als potenzielle horizontale Kante identifiziert wird.
  • Die potenziellen horizontalen Segmente 136 1, 136 2, 136 3 (z. B. die ersten Komponenten) werden in einem Schritt 1004 gemäß der jeweiligen Anzahl von Bildpunkten in den potenziellen horizontalen Kanten 136 1, 136 2, 136 3 sortiert. Beispielsweise wird, wie oben erörtert, da alle horizontalen Segmente zumindest die vorbestimmte Anzahl von horizontalen zusammenhängenden Bildpunkten enthält, jede der potenziellen horizontalen Kanten 136 1, 136 2, 136 3 in die Sortierung aufgenommen. Gegebenenfalls werden in Schritt 1004 die ersten Komponenten 136 1, 136 2, 136 3 (z. B. die horizontalen Kanten) der Attributsätze in absteigender Reihenfolge gemäß der jeweiligen Anzahl von Bildpunkten in der horizontalen Kante sortiert. In dem veranschaulichten Beispiel enthält die erste Komponente 136 1 der ersten potenziellen Kante drei (3) Bildpunkte, enthält die erste Komponente 136 2 der zweiten potenziellen Kante sechs (6) Bildpunkte und enthält die erste Komponente 136 3 der dritten potenziellen Kante drei (3) Bildpunkte. Daher werden die potenziellen Kanten gegebenenfalls in absteigender Reihenfolge gemäß den ersten Komponenten als 136 2 (6 Bildpunkte), 136 1 (3 Bildpunkte), 136 3 (3 Bildpunkte) in Schritt 1004 sortiert. Da die ersten Komponenten 136 1 und 136 3 jeweils 3 Bildpunkte enthalten, können die ersten Komponenten 136 1 und 136 3 in Schritt 1004 entweder als 136 1, 136 3 oder 136 3, 136 1 sortiert werden.
  • In einem Schritt 1006 wird eine aktuelle erste Komponente ausgewählt. In der veranschaulichten Ausführungsform werden die sortierten ersten Komponenten in absteigender Reihenfolge ausgewählt. Daher wird die aktuelle erste Komponente in Schritt 1006 als 136 2 ausgewählt.
  • Ein ganz linker Bildpunkt der aktuellen ersten Komponente (z. B. des aktuellen potenziellen horizontalen Segments) und ein ganz rechter Bildpunkt der aktuellen ersten Komponente (z. B. des aktuellen potenziellen horizontalen Segments) werden in einem Schritt 1010 identifiziert. In einem Schritt 1012 erfolgt eine Bestimmung, ob potenzielle linke vertikale Kanten aus zumindest der vorbestimmten Anzahl (z. B. drei (3) Bildpunkte) von zusammenhängenden vertikalen Bildpunkten einen linken unteren Bildpunkt innerhalb einer vorbestimmten Anzahl von horizontalen Bildpunkten und innerhalb einer vorbestimmten Anzahl von vertikalen Bildpunkten weg vom ganz linken Bildpunkt der aktuellen ersten Komponente aufweisen. In einem Schritt 1014 erfolgt eine Bestimmung, ob potenzielle rechte vertikale Kanten aus der vorbestimmten Anzahl (z. B. drei (3) Bildpunkte) von zusammenhängenden vertikalen Bildpunkten einen rechten unteren Bildpunkt innerhalb einer vorbestimmten Anzahl von horizontalen Bildpunkten und innerhalb der vorbestimmten Anzahl von vertikalen Bildpunkten weg vom ganz rechten Bildpunkt der aktuellen ersten Komponente aufweisen. In einer Ausführungsform beträgt die vorbestimmte Anzahl von horizontalen Bildpunkten fünf (5) und beträgt die vorbestimmte Anzahl von vertikalen Bildpunkten fünf (5). Jedoch werden auch andere Anzahlen von Bildpunkten für die vorbestimmte Anzahl von horizontalen und vertikalen Bildpunkten in Betracht gezogen. Wenn mehr als eine potenzielle linke vertikale Kante vorhanden ist, versteht sich, dass jede der potenziellen linken vertikalen Kanten so sortiert werden kann, dass die stärkste potenzielle linke vertikale Kante zuerst ausgewertet wird. Ebenso versteht sich, dass, wenn mehr als eine potenzielle rechte vertikale Kante vorhanden ist, jede der potenziellen rechten vertikalen Kanten so sortiert werden kann, dass die stärkste potenzielle rechte vertikale Kante zuerst ausgewertet wird.
  • In dem Fall, in dem es sich bei der aktuellen ersten Komponente um 136 2 handelt, wird in Schritt 1010 der ganz linke Bildpunkt als 146 2 (z. B. 132 11 , 8) identifiziert und wird der ganz rechte Bildpunkt als 148 2 (z. B. 132 16,8) identifiziert. In dem veranschaulichten Beispiel ist eine mögliche linke vertikale Kante ein vertikales Segment 140 bei den Bildpunkten 132 9,10-12, das einen unteren Bildpunkt 152 (z. B. 132 9,10) aufweist. Darüber hinaus ist eine mögliche rechte vertikale Kante ein vertikales Segment 142 bei den Bildpunkten 132 19,8-13, das einen unteren Bildpunkt 160 (z. B. 132 19 , 8) aufweist. Da sowohl das linke vertikale Segment 140 als auch das rechte vertikale Segment 142 zumindest drei (3) Bildpunkte lang sind, weisen beide dieser Segmente 140, 142 zumindest die vorbestimmte Anzahl von zusammenhängenden vertikalen Bildpunkten auf, um jeweilige potenzielle vertikale Kanten zu sein.
  • Da sich der untere Bildpunkt 152 (z. B. 132 9,10) des vertikalen Segments 140 zwei (2) horizontale Bildpunkte (siehe die Lücke 162) und zwei (2) vertikale Bildpunkte (siehe die Lücke 150) von dem ganz linken Bildpunkt 146 2 der aktuellen ersten Komponente 136 2 befindet, wird das vertikale Segment 140 in Schritt 1012 als eine potenzielle linke vertikale Kante der aktuellen ersten Komponente (z. B. der potenziellen horizontalen Kante 136 2) bestimmt. Mit anderen Worten beträgt der Abstand von zwei (2) horizontalen Bildpunkten weniger als die vorbestimmte Anzahl von horizontalen Bildpunkten (z. B. fünf (5)) und beträgt der Abstand von zwei (2) vertikalen Bildpunkten weniger als die vorbestimmte Anzahl von vertikalen Bildpunkten (z. B. fünf (5)). Ferner wird, da sich der untere Bildpunkt 160 (z. B. 132 19,8) des rechten vertikalen Segments 142 drei (3) horizontale Bildpunkte (siehe die Lücke 164) und null (0) vertikale Bildpunkte von dem ganz rechten Bildpunkt 148 2 (z. B. 132 16,8) der aktuellen ersten Komponente 136 2 befindet, das vertikale Segment 142 in Schritt 1014 als eine potenzielle rechte vertikale Kante der aktuellen ersten Komponente (z. B. der potenziellen horizontalen Kante 136 2) bestimmt. Mit anderen Worten beträgt der Abstand von drei (3) horizontalen Bildpunkten weniger als die vorbestimmte Anzahl von horizontalen Bildpunkten (z. B. fünf (5)) und beträgt der Abstand von null (0) horizontalen Bildpunkten weniger als die vorbestimmte Anzahl von vertikalen Bildpunkten (z. B. fünf (5)).
  • Wenn in Schritt 1012 festgestellt wird, dass eine potenzielle linke vertikale Kante mit der aktuellen ersten Komponente 136 2 assoziiert ist, geht die Steuerung zum Schritt 1014 über, um zu bestimmen, ob eine potenzielle rechte vertikale Kante mit der aktuellen ersten Komponente 136 2 assoziiert ist. Ansonsten geht die Steuerung zu einem Schritt 1016 über, um festzustellen, ob eine nächte erste Komponente vorhanden ist. Wenn eine nächste erste Komponente vorhanden ist, geht die Steuerung zu einem Schritt 1020 über, um die nächste erste Komponente auszuwählen, und kehrt die Steuerung dann zum Schritt 1010 zurück, um den ganz linken Bildpunkt und den ganz rechten Bildpunkt der nächsten ersten Komponente zu identifizieren. Wenn keine nächste erste Komponente in Schritt 1016 identifiziert wird, geht die Steuerung ansonsten zu einem Schritt 1022 über, der weiter unten erörtert wird. Wenn in Schritt 1014 festgestellt wird, dass eine potenzielle rechte vertikale Kante mit der aktuellen ersten Komponente 136 2 assoziiert ist, geht die Steuerung zu einem Schritt 1024 über, um zu bestimmen, ob sich zumindest eine vorbestimmte Anzahl von überlappenden Bildpunkten überlappt 170 und/oder ein Mindestanteil von Bildpunktüberlappung 170 zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142 vorhanden ist. Ansonsten geht die Steuerung zu Schritt 1016 über.
  • In Schritt 1024 kann die Überlappung 170 als Überlappung 170 von zumindest einer vorbestimmten Anzahl von überlappenden Bildpunkten (z. B. zwei (2) Bildpunkten) und/oder der Mindestanteil (z. B. 40%) von Bildpunktüberlappung 170 zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142 bestimmt werden. In einer Ausführungsform handelt es sich bei dem Anteil von Bildpunktüberlappung um die Anzahl von Bildpunkten, die sich innerhalb einer effektiven Maximallänge der vertikalen Segmente 140, 142 überlappen (z. B. drei (3) Bildpunkte in 4). Beispielsweise erstreckt sich die effektive Maximallänge der vertikalen Segmente 140, 142 vom untersten Bildpunkt zum höchsten Bildpunkt der vertikalen Segmente 140, 142. In 4 ist der unterste Bildpunkt der vertikalen Segmente 140, 142 der Bildpunkt 132 19,8 und ist der höchste Bildpunkt der vertikalen Segmente 140, 142 der Bildpunkt 132 19,13. Somit erstreckt sich die effektive Maximallänge der vertikalen Segmente 140, 142 vom Bildpunkt 132 19,8 zum Bildpunkt 132 19,13. Mit anderen Worten beträgt die effektive Maximallänge der vertikalen Segmente 140, 142 sechs (6) Bildpunkte (d. h. Bildpunkt 132 19,8 bis einschließlich Bildpunkt 132 19,13). Wie oben angemerkt, beträgt die tatsächliche Überlappung zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142 drei (3) Bildpunkte. Daher beträgt der Anteil an Bildpunktüberlappung 170 50% (d. h. 3/6). Wenn in Schritt 1024 festgestellt wird, dass sich das linke vertikale Segment 140 und das rechte vertikale Segment 142 um zumindest die vorbestimmte Anzahl von überlappenden Bildpunkten und/oder den Mindestanteil überlappen, geht die Steuerung zu einem Schritt 1026 über, um zu bestimmen, ob ein Abstand zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142 innerhalb eines vorbestimmten Abstandsbereichs liegt (z. B. größer gleich einer Mindestanzahl von Bildpunkten und größer gleich einer Höchstanzahl von Bildpunkten). Wenn in Schritt 1024 keine ausreichende Überlappung festgestellt wird, geht die Steuerung ansonsten zu Schritt 1016 über.
  • In Schritt 1026 erfolgt eine Bestimmung, ob der Abstand zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142z. B. größer gleich vier (4) Bildpunkte und kleiner gleich zwanzig (20) Bildpunkte ist. Im vorliegenden Beispiel beträgt der Abstand zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142 neun (9) Bildpunkte, was innerhalb des vorbestimmten Abstandsbereichs liegt. Wenn der Abstand zwischen dem linken vertikalen Segment 140 und dem rechten vertikalen Segment 142 innerhalb des vorbestimmten Abstandsbereichs liegt, geht die Steuerung zu einem Schritt 1030 über, um die aktuelle erste Komponente (z. B. die potenzielle horizontale Kante 136 2) sowie das assoziierte linke vertikale Segment 140 und rechte vertikale Segment 142 als potenzielle Kanten zu identifizieren. Die Steuerung geht dann zu Schritt 1016 über, um festzustellen, ob eine nächste erste Komponente vorhanden ist. Ansonsten geht die Steuerung zu Schritt 1016 über.
  • In Schritt 1016 kann, wenn die aktuelle erste Komponente 136 2 ist, die nächste erste Komponente als 136 1 identifiziert werden. In diesem Fall wird die aktuelle erste Komponente in Schritt 1020 als 136 1 ausgewählt. Anschließend wird in Schritt 1010 der ganz linke Bildpunkt 146 1 der aktuellen ersten Komponente 136 1 als Bildpunkt 132 3,8 identifiziert und der ganz rechte Bildpunkt 148 1 der aktuellen ersten Komponente 136 1 als Bildpunkt 136 5,8 identifiziert.
  • In Schritt 1012 wird ein vertikales Segment 172 als potenzielle linke vertikale Kante bestimmt, die mit der aktuellen ersten Komponente 136 1 assoziiert ist. Da sich der untere Bildpunkt 174 (z. B. 132 3,8) des vertikalen Segments 172 null (0) horizontale Bildpunkte (d. h. weniger als die vorbestimmte Anzahl (von z. B. fünf (5) horizontalen Bildpunkten)) und null (0) vertikale Bildpunkte (d. h. weniger als die vorbestimmte Anzahl (von z. B. fünf (5) vertikalen Bildpunkten)) von dem ganz linken Bildpunkt 146 1 der aktuellen ersten Komponente 136 1 befindet und da das vertikale Segment 172 wenigstens drei zusammenhängende Bildpunkte enthält, wird das vertikale Segment 172 in Schritt 1012 als potenzielle linke vertikale Kante der aktuellen ersten Komponente (z. B. der potenziellen horizontalen Kante 136 1) bestimmt. In Schritt 1014 wird das vertikale Segment 140 als mit der aktuellen ersten Komponente 136 1 assoziierte potenzielle rechte vertikale Kante bestimmt. Da sich der untere Bildpunkt 152 (z. B. 132 9,10 ) des vertikalen Segments 140 vier (4) horizontale Bildpunkte (d. h. weniger als die vorbestimmte Anzahl (von z. B. fünf (5) horizontalen Bildpunkten)) und zwei (2) vertikale Bildpunkte (d. h. weniger als die vorbestimmte Anzahl (von z. B. fünf (5) vertikalen Bildpunkten)) von dem ganz rechten Bildpunkt 148 1 der aktuellen ersten Komponente 136 1 befindet und da das vertikale Segment 140 wenigstens drei zusammenhängende Bildpunkte enthält, wird das vertikale Segment 140 in Schritt 1014 als potenzielle rechte vertikale Kante der aktuellen ersten Komponente (z. B. der potenziellen horizontalen Kante 136 1) bestimmt.
  • Da eine ausreichende Überlappung der vorbestimmten Anzahl (z. B. zwei (2) und/oder 40% (d. h. 2/5)) von überlappenden Bildpunkten vorhanden ist, wie in Schritt 1024 bestimmt, und der Abstand zwischen den vertikalen Segmenten 172, 142 innerhalb des vorbestimmten Abstandsbereichs in Schritt 1026 liegt, werden die aktuelle erste Komponente (z. B. die potenzielle horizontale Kante 136 1) sowie das assoziierte linke vertikale Segment 172 und rechte vertikale Segment 140 in Schritt 1030 als potenzielle Kanten identifiziert. Die Steuerung geht dann zu Schritt 1016 über, um festzustellen, ob eine nächste erste Komponente vorhanden ist. Wenn in Schritt 1024 keine ausreichende Überlappung festgestellt wird, geht die Steuerung ansonsten zu Schritt 1016 über.
  • In Schritt 1016 kann, wenn die aktuelle erste Komponente 136 1 ist, die nächste erste Komponente als 136 3 identifiziert werden. In diesem Fall wird die aktuelle erste Komponente in Schritt 1020 als 136 3 ausgewählt. Anschließend wird in Schritt 1010 der ganz linke Bildpunkt 146 3 der aktuellen ersten Komponente 136 3 als Bildpunkt 132 25,8 identifiziert und der ganz rechte Bildpunkt 148 3 der aktuellen ersten Komponente 136 3 als Bildpunkt 136 27,8 identifiziert.
  • In Schritt 1012 wird das vertikale Segment 142 als potenzielle linke vertikale Kante bestimmt, die mit der aktuellen ersten Komponente 136 3 assoziiert ist. Da sich der untere Bildpunkt 160 (z. B. 132 19,8) des vertikalen Segments 142 sechs (6) horizontale Bildpunkte (d. h. größer als die vorbestimmte Anzahl (von z. B. fünf (5) horizontalen Bildpunkten)) von dem ganz linken Bildpunkt 146 3 der aktuellen ersten Komponente 136 3 befindet, geht die Steuerung von Schritt 1012 direkt zu Schritt 1016 über, um festzustellen, ob eine nächste erste Komponente vorhanden ist.
  • Es versteht sich, dass die horizontalen Segmente 136 1 und 136 2 zusammen als einzelnes horizontales Segment 136 1,2 ausgewertet werden können, das ein Lücke umfasst, welche die Bildpunkte 132 6-10,8 enthält. In diesem Fall lautet das Ergebnis der Schritte 1010, 1012, 1014, 1024, 1026 und 1030, dass das vertikale Segment 172 als mögliche linke vertikale Kante des horizontalen Segments 136 1,2 identifiziert werden kann und das vertikale Segment 142 als eine mögliche rechte vertikale Kante des horizontalen Segments 136 1,2 identifiziert werden kann.
  • Eine andere Möglichkeit ist, dass die horizontalen Segmente 136 2 und 136 3 zusammen als einzelnes horizontales Segment 136 2,3 ausgewertet werden, das Lücken umfasst, welche die Bildpunkte 132 17-18,8 und 132 19-24,8 enthalten. Da sich das vertikale Segment 142 jedoch mit dem horizontalen Segment 136 2,3 bei einem Bildpunkt 132 19,8 kreuzt, bei dem es sich weder um den ganz linken Bildpunkt 132 11,8 noch um den ganz rechten Bildpunkt 132 27,8 handelt, wird das horizontale Segment 136 2,3 nicht als potenzielle horizontale Kante angesehen. Ebenso können die horizontalen Segmente 136 1, 136 2, 136 3 zusammen als einzelnes horizontales Segment 136 1,2,3 ausgewertet werden, das Lücken umfasst, welche die Bildpunkte 132 6-10,8, die Bildpunkte 132 17-18,8 und 132 19-24,8 enthalten. Da sich das vertikale Segment 142 jedoch mit dem horizontalen Segment 136 1,2,3 beim Bildpunkt 132 19,8 kreuzt, bei dem es sich weder um den ganz linken Bildpunkt 132 3,8 noch um den ganz rechten Bildpunkte 132 27,8 handelt, wird das horizontale Segment 136 1,2,3 nicht als potenzielle horizontale Kante angesehen.
  • In Schritt 1022 werden eine aktuelle Bestwertung und ein aktueller Satz von potenziellen Kanten ausgewählt. Die aktuelle Bestwertung stellt eine Summe der jeweiligen Anteile der drei (3) Komponenten von jedem der Sätze von Kanten dar. In einem Beispiel wird eine aktuelle Bestwertung als 225% ausgewählt. Es versteht sich jedoch, dass eine beliebige andere aktuelle Bestwertung in Schritt 1022 ausgewählt werden kann. Der aktuelle Satz von potenziellen Kanten schließt einen Satz von Kanten ein, der im oben beschriebenen Schritt 1036 identifiziert wurde, und umfasst eine horizontale Kante, eine linke vertikale Kante und eine rechte vertikale Kante. Beispielsweise werden die horizontale Kante 1362 sowie die linke vertikale Kante 140 und die rechte vertikale Kante 142 in Schritt 1022 ausgewählt.
  • In einem Schritt 1032 wird ein aktueller Teilsatz von Kanten identifiziert. In einer Ausführungsform wird der Teilsatz von Kanten als die linke und die rechte vertikale Kante ausgewählt. In einem Schritt 1034 wird eine bestmögliche Wertung, einschließlich der tatsächlichen Füllfaktoren für den aktuellen Teilsatz der Kanten (z. B. linke und rechte vertikale Kante), bestimmt. Konkret werden der tatsächliche Füllgrad für den Teilsatz der Kanten (z. B. linke und rechte vertikale Kante) und eine Füllung von 100% für die verbleibende Kante (z. B. die horizontale Kante) verwendet. Beispielsweise ist die linke Kante 140 zu 50% gefüllt (d. h. 3 der 6 Bildpunkte 132 9,8-13 sind gefüllt) und ist die rechte Kante 142 zu 100% gefüllt (d. h. 6 der 6 Bildpunkte 132 9,8-13 sind gefüllt). Somit wird die bestmögliche Wertung als 50% für die linke vertikale Kante 140 + 100% für die rechte vertikale Kante 142 + 100% für die horizontale Kante 136 2 bestimmt. In diesem Fall beträgt die bestmögliche Wertung 50% + 100% + 100% = 250%.
  • In einem Schritt 1036 erfolgt eine Bestimmung, ob die bestmögliche Wertung (d. h. 250%) größer als die aktuelle Bestwertung (d. h. 225%) ist. Wenn die bestmögliche Wertung nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zu einem Schritt 1044 über, um zu bestimmen, ob noch ein anderer Satz von potenziellen Kanten auszuwerten ist. Wenn ein anderer Satz von Attributen zur Auswertung verfügbar ist, geht die Steuerung zu einem Schritt 1054 über, um den nächsten Satz von potenziellen Kanten zu identifizieren. Die Steuerung kehrt dann zu Schritt 1032 zurück. Wenn in Schritt 1044 festgestellt wird, dass keine weiteren Sätze von potenziellen Kanten zur Auswertung verfügbar sind, geht die Steuerung ansonsten zu einem Schritt 1056 über, um eine Position des potenziellen sich voraus befindenden Fahrzeugs 108 (z. B. des Elements) basierend auf der horizontalen Kante, der linken vertikalen Kante und der rechten vertikalen Kante, die mit der aktuellen Bestwertung assoziiert sind, zu identifizieren.
  • Wenn in Schritt 1036 festgestellt wird, dass die bestmögliche Wertung größer als die aktuelle Bestwertung ist, geht die Steuerung zu einem Schritt 1046 über, um eine tatsächliche Wertung für den aktuellen Satz von potenziellen Kanten zu bestimmen. In dem veranschaulichten Beispiel beträgt die tatsächliche Wertung für die horizontale Kante 136 2 55% (z. B. sind sechs (6) Bildpunkte 132 11-16,8 von elf (11) Bildpunkten 132 9-19,8 gefüllt). Darüber hinaus wird der tatsächliche Füllgrad der linken möglichen Kante 140 zwischen der Maximalhöhe der linken und rechten möglichen Kante 140, 142 und der möglichen horizontalen Kante 136 2 bestimmt. In dem veranschaulichten Beispiel erstreckt sich die rechte mögliche Kante 142 höher (d. h. bis Bildpunkt 132 19,13) als die linke mögliche Kante 140 (d. h. bis Bildpunkt 132 19,13). Daher basieren die tatsächlichen Füllgrade der linken und rechten möglichen Kante 140, 142 auf einer höheren Höhe der linken und rechten möglichen Kante 140, 142 ab der möglichen horizontalen Kante 136 2 (d. h. der rechten möglichen Kante 142, die über eine Höhe von sechs (6) Bildpunkten verfügt). In diesem Fall beträgt der tatsächliche Füllgrad der linken möglichen Kante 140 50% (d. h. 3/6) und beträgt der tatsächliche Füllgrad der rechten möglichen Kante 142 100% (d. h. 6/6). Die tatsächliche Wertung für den aktuellen Satz von Attributen beträgt dann 55% (d. h. bei der horizontalen Kante 136 2) + 50% (d. h. bei der linken möglichen Kante 140) + 100% (bei der rechten möglichen Kante 142), was 205% entspricht.
  • In Schritt 1050 erfolgt eine Bestimmung, ob die tatsächliche Wertung größer als die aktuelle Bestwertung ist. Wenn die tatsächliche Wertung größer als die aktuelle Bestwertung ist, wird die aktuelle Bestwertung auf die aktuelle Wertung in einem Schritt 1052 eingestellt, woraufhin die Steuerung zum Schritt 1044 übergeht, um zu bestimmen, ob noch ein anderer Satz von Attributen (z. B. Kanten) auszuwerten ist. Wenn die tatsächliche Wertung in Schritt 1050 nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zum Schritt 1044 über.
  • Wenn in Schritt 1044 festgestellt wird, dass mehr Sätze von potenziellen Kanten zur Auswertung verfügbar sind, wie oben erörtert, wird ein nächster Satz von potenziellen Kanten in Schritt 1054 identifiziert. Beispielsweise kann, wenn der Satz von potenziellen Kanten, einschließlich der horizontalen Kante 136 2, der linken vertikalen Kante 140 und der rechten vertikalen Kante 142, ausgewertet wurde, der Satz von potenziellen Kanten, einschließlich der horizontalen Kante 136 1, der linken vertikalen Kante 172 und der rechten vertikalen Kante 140, als nächster Satz von potenziellen Kanten in Schritt 1054 identifiziert werden.
  • Anschließend kann in Schritt 1032 der aktuelle Teilsatz als die linke vertikale Kante 172 und die rechte vertikale Kante 140, die mit der horizontalen Kante 136 1 assoziiert sind, identifiziert werden. Bei Anwendung des tatsächlichen Füllwerts von 80% (d. h. 4/5) für die linke vertikale Kante 172, 60% (d. h. 3/5) für die rechte vertikale Kante 140 und eines maximalen Füllwerts von 100% für die horizontale Kante 136 1 wird die bestmögliche Wertung in Schritt 1034 mit 240% bestimmt. Da die bestmögliche Wertung größer als die aktuelle tatsächliche Wertung (d. h. 205%) ist, die zuvor in Schritt 1052 eingestellt wurde, geht die Steuerung vom Schritt 1036 zum Schritt 1046 über, um den tatsächlichen Füllwert der horizontalen Kante 136 1, der linken vertikalen Kante 172 und der rechten vertikalen Kante 140 zu bestimmen.
  • In Schritt 1046 beträgt der tatsächliche Füllwert der horizontalen Kante 136 1 43% (3/7). Da, wie oben angemerkt, der tatsächliche Füllwert der linken vertikalen Kante 172 80% (d. h. 4/5) beträgt und der tatsächliche Füllwert der rechten vertikalen Kante 140 60% (d. h. 3/5) beträgt, wird der tatsächliche Füllwert der horizontalen Kante 136 1, der linken vertikalen Kante 172 und der rechten vertikalen Kante 140 als 183% (d. h. 43% + 80% + 60%) in Schritt 1046 bestimmt. Da der tatsächliche Füllwert von 183% in Schritt 1050 als kleiner als die aktuelle tatsächliche Wertung von 205% bestimmt wird, geht die Steuerung vom Schritt 1050 zum Schritt 1044 über, um zu bestimmen, ob ein anderer Satz von potenziellen Kanten noch nicht ausgewertet wurde. Beispielsweise kann das horizontale Segment 136 1,2, das mit dem vertikalen Segment 172 und dem vertikalen Segment 140 assoziiert ist, als ein anderer noch nicht ausgewerteter Satz von Attributen identifiziert werden.
  • Wenn in Schritt 1044 festgestellt wird, dass mehr Sätze von potenziellen Kanten zur Auswertung verfügbar sind, wie oben erörtert, wird ein nächster Satz von potenziellen Kanten in Schritt 1054 identifiziert. Wenn z. B. der Satz von potenziellen Kanten, einschließlich der horizontalen Kante 136, der linken vertikalen Kante 172 und der rechten vertikalen Kante 140, ausgewertet wurde, kann der Satz von potenziellen Kanten, einschließlich der horizontalen Kante 136 1,2, der linken vertikalen Kante 172 und der rechten vertikalen Kante 140, als nächster Satz von Attributen in Schritt 1054 identifiziert werden.
  • Anschließend kann in Schritt 1032 der aktuelle Teilsatz als die linke vertikale Kante 172 und die rechte vertikale Kante 142 identifiziert werden. Der tatsächliche Füllwert der linken vertikalen Kante 172 wird als 67% (d. h. 4/6) bestimmt und der tatsächliche Füllwert der rechten vertikalen Kante 142 wird als 100% (d. h. 6/6) bestimmt. Somit wird die bestmögliche Wertung in Schritt 1034 mit 267% bestimmt (d. h. 67% für die linke vertikale Kante 172 + 100% für die rechte vertikale Kante 142 + 100% maximaler Füllfaktor für die horizontale Kante 136 1,2) bestimmt. Da die bestmögliche Wertung größer als die aktuelle tatsächliche Wertung (d. h. 205%) ist, die zuvor in Schritt 1052 eingestellt wurde, geht die Steuerung vom Schritt 1036 zum Schritt 1046 über, um den tatsächlichen Füllwert der horizontalen Kante 136 1,2, der linken vertikalen Kante 172 und der rechten vertikalen Kante 142 zu bestimmen.
  • In Schritt 1046 beträgt der tatsächliche Füllwert der horizontalen Kante 136 1,2 64% (d. h. neun (9) der vierzehn (14) Bildpunkte 132 3-16,8 sind gefüllt). Da, wie oben angemerkt, der tatsächliche Füllwert der linken vertikalen Kante 172 67% (d. h. 4/6) beträgt und der tatsächliche Füllwert der rechten vertikalen Kante 142 100% (d. h. 6/6) beträgt, wird der tatsächliche Füllwert der horizontalen Kante 136 1,2, der linken vertikalen Kante 172 und der rechten vertikalen Kante 142 als 231% (d. h. 64% + 67% + 100%) in Schritt 1046 bestimmt. Da der tatsächliche Füllwert von 231% in Schritt 1050 als größer als die aktuelle tatsächliche Wertung von 205% bestimmt wird, geht die Steuerung vom Schritt 1050 zum Schritt 1052 über, um die aktuelle Bestwertung auf die aktuelle tatsächliche Wertung von 231% einzustellen. Die Steuerung kehrt dann zum Schritt 1044 zurück, um zu bestimmen, ob ein anderer Satz von potenziellen Kanten noch nicht ausgewertet wurde.
  • Nach dem Auswerten des Satzes von Attributen, einschließlich der horizontalen Kante 136 1,2, der linken vertikalen Kante 172 und der rechten vertikalen Kante 142, wird in Schritt 1044 bestimmt, dass keine weiteren Sätze von Attributen zur Auswertung verfügbar sind. Daher geht die Steuerung zum Schritt 1056 über.
  • In Schritt 1056 wird die Position des potenziellen sich voraus befindenden Fahrzeugs 108 (z. B. des Elements) (siehe 1) basierend auf der horizontalen Kante, der linken vertikalen Kante und der rechten vertikalen Kante, die mit der aktuellen Bestwertung assoziiert sind, identifiziert. Da die aktuelle Bestwertung von 231% mit der horizontalen Kante 136 1,2, der linken vertikalen Kante 172 und der rechten vertikalen Kante 142 assoziiert ist, wird Position des potenziellen sich voraus befindenden Fahrzeugs 108 (z. B. des Elements) (siehe 1) basierend auf der horizontalen Kante 136 1,2, der linken vertikalen Kante 172 und der rechten vertikalen Kante 142 identifiziert.
  • In einer Ausführungsform werden die obengenannten Schritte mit der Zeit kontinuierlich mit z. B. neuen Bildern wiederholt. Wenn die horizontale Kante 136 1,2, die linke vertikale Kante 172 und die rechte vertikale Kante 142 mit der Zeit erneut identifiziert werden, dient dies als Bestätigung, dass die horizontale Kante 136 1,2, die linke vertikale Kante 172 und die rechte vertikale Kante 142 die Position des sich voraus befindenden Fahrzeugs 108 (z. B. des Elements) (siehe 1) wiedergeben.
  • Eine alternative Ausführungsform zum Bestimmen der bestmöglichen Wertung (Schritt 1034) wird unter Bezugnahme auf die 1, 3, 4 und 4a vorgestellt. In dieser Ausführungsform wird eine Wertung gemäß einer Gleichung 1 bestimmt, die wie folgt lautet: Wertung = % horizontale Füllung·((1 – % max. horizontale Lücke) + % Überlappung + ((% linke Füllung + % rechte Füllung)/2))
  • In Gleichung 1 steht % horizontale Füllung für einen Füllgrad der horizontalen Kante; steht % max. horizontale Lücke für einen Prozentsatz von Bildpunkten, die als Lücke in der horizontalen Kante dargestellt sind; steht % Überlappung für den Füllgrad zwischen dem höchsten und niedrigsten Punkt der linken und rechten Kante; steht % linke Füllung für einen Füllgrad der linken Kante und steht % rechte Füllung für einen Füllgrad der rechten Kante. Eine bestmögliche % horizontale Füllung beträgt 100%. Eine bestmögliche % max. horizontale Lücke beträgt 0%. Eine bestmögliche % Überlappung ist der jeweils kleinere aus dem linken Füllgrad und dem rechten Füllgrad. Die bestmögliche % linke Füllung beträgt 100% und die bestmögliche % rechte Füllung beträgt 100%.
  • Zum Zweck dieses Beispiels sei angenommen, dass die aktuelle Bestwertung mit 200% in Schritt 1022 ausgewählt wurde.
  • Unter der Annahme, dass die horizontale Kante 136 2 sowie die linke vertikale Kante 140 und die rechte vertikale Kante 142 als aktueller Satz von potenziellen Kanten in Schritt 1022 ausgewählt werden, wird in einem Schritt 1034a eine erste Teilwertung basierend auf dem tatsächlichen Füllgrad der linken vertikalen Kante 140 und bestmöglichen Werten für die anderen Variablen bestimmt. Wie oben erörtert, beträgt der tatsächliche Füllgrad der linken vertikalen Kante 140 50%. Daher wird die erste Teilwertung in Schritt 1034a gemäß Gleichung 1 bestimmt als: Wertung = 100% (d. h. beste % horizontale Füllung)·((100% – 0% (d. h. beste % max. horizontale Lücke) + 50% (d. h. beste % Überlappung) + ((50% (d. h. tatsächliche % linke Füllung) + 100% (d. h. beste % rechte Füllung))/2)) = 225%.
  • In einem Schritt 1034b erfolgt eine Bestimmung, ob die erste Teilwertung größer als die aktuelle Bestwertung ist. Wenn die erste Teilwertung nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zum Schritt 1044 über, um zu bestimmen, ob noch ein anderer Satz von potenziellen Kanten auszuwerten ist. Wenn die erste Teilwertung größer als die aktuelle Bestwertung ist, geht die Steuerung ansonsten zu einem Schritt 1034c über. Im vorliegenden Beispiel geht, da die Wertung von 225% größer als die aktuelle Bestwertung von 200% ist, die Steuerung zum Schritt 1034c über.
  • In Schritt 1034c wird eine zweite Teilwertung basierend auf den tatsächlichen Füllgraden für die linke vertikale Kante 140 (z. B. 50%) und die rechte vertikale Kante 142 (z. B. 100%) bestimmt. Daher wird in Schritt 1034c die zweite Teilwertung gemäß Gleichung 1 bestimmt als: Wertung = 100% (d. h. beste % horizontale Füllung)·((100% – 0% (d. h. beste % max. horizontale Lücke) + 50% (d. h. beste % Überlappung) + ((50% (d. h. tatsächliche % linke Füllung) + 100% (d. h. tatsächliche % rechte Füllung))/2)) = 225%.
  • In einem Schritt 1034d erfolgt eine Bestimmung, ob die zweite Teilwertung größer als die aktuelle Bestwertung ist. Wenn die zweite Teilwertung nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zum Schritt 1044 über, um zu bestimmen, ob noch ein anderer Satz von potenziellen Kanten auszuwerten ist. Wenn die zweite Teilwertung größer als die aktuelle Bestwertung ist, geht die Steuerung ansonsten zu Schritt 1034e über. Im vorliegenden Beispiel geht, da die Wertung von 225% größer als die aktuelle Bestwertung von 200% ist, die Steuerung zum Schritt 1034e über.
  • In Schritt 1034e wird eine dritte Teilwertung basierend auf den tatsächlichen Füllgraden für die linke vertikale Kante 140 (z. B. 50%), die rechte vertikale Kante 142 (z. B. 100%) und die Überlappung 170 (z. B. 50%) bestimmt. Daher wird in Schritt 1034e die dritte Teilwertung gemäß Gleichung 1 bestimmt als: Wertung = 100% (d. h. beste % horizontale Füllung)·((100% – 0% (d. h. beste % max. horizontale Lücke) + 50% (d. h. tatsächliche % Überlappung) + ((50% (d. h. tatsächliche % linke Füllung) + 100% (d. h. tatsächliche % rechte Füllung))/2)) = 225%.
  • In einem Schritt 1034f erfolgt eine Bestimmung, ob die dritte Teilwertung größer als die aktuelle Bestwertung ist. Wenn die dritte Teilwertung nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zum Schritt 1044 über, um zu bestimmen, ob noch ein anderer Satz von potenziellen Kanten auszuwerten ist. Wenn die dritte Teilwertung größer als die aktuelle Bestwertung ist, geht die Steuerung ansonsten zu einem Schritt 1034g über. Im vorliegenden Beispiel geht, da die Wertung von 225% größer als die aktuelle Bestwertung von 200% ist, die Steuerung zum Schritt 1034g über.
  • In Schritt 1034g wird eine vierte Teilwertung basierend auf den tatsächlichen Füllgraden für die linke vertikale Kante 140 (z. B. 50%), die rechte vertikale Kante 142 (z. B. 100%), die Überlappung 170 (z. B. 50%) und die horizontale Kante 136 2 bestimmt. Daher wird in Schritt 1034g die vierte Teilwertung gemäß Gleichung 1 bestimmt als: Wertung = 55% (d. h. tatsächliche % horizontale Füllung)·((100% – 0% (d. h. beste % max. horizontale Lücke) + 50% (d. h. tatsächliche % Überlappung) + ((50% (d. h. tatsächliche % linke Füllung) + 100% (d. h. tatsächliche % rechte Füllung))/2)) = 124%.
  • In Schritt 1034h erfolgt eine Bestimmung, ob die vierte Teilwertung größer als die aktuelle Bestwertung ist. Wenn die vierte Teilwertung nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zum Schritt 1044 über, um zu bestimmen, ob noch ein anderer Satz von potenziellen Kanten auszuwerten ist. Wenn die vierte Teilwertung größer als die aktuelle Bestwertung ist, geht die Steuerung ansonsten zu einem Schritt 1034i über. Im vorliegenden Beispiel geht, da die Wertung von 124% nicht größer als die aktuelle Bestwertung von 200% ist, die Steuerung zum Schritt 1044 über.
  • Obwohl die Steuerung im vorliegenden Beispiel zu Schritt 1044 zurückgekehrt ist, werden die übrigen Schritte in 4a erörtert. In Schritt 1034i wird eine fünfte Teilwertung basierend auf den tatsächlichen Füllgraden für die linke vertikale Kante 140 (z. B. 50%), die rechte vertikale Kante 142 (z. B. 100%), die Überlappung 170 (z. B. 50%) und die maximale Lücke in der horizontalen Kante (z. B. 18%, was 2 Bildpunkten 132 9-10,8 von 11 Bildpunkten 132 9-19,8 entspricht) bestimmt. Daher wird in Schritt 1034i die fünfte Teilwertung gemäß Gleichung 1 bestimmt als: Wertung = 55% (d. h. tatsächliche % horizontale Füllung)·((100% – 18% (d. h. tatsächliche % max. horizontale Lücke) + 50% (d. h. tatsächliche % Überlappung) + ((50% (d. h. tatsächliche % linke Füllung) + 100% (d. h. tatsächliche % rechte Füllung))/2)) = 114%.
  • In Schritt 1034j erfolgt eine Bestimmung, ob die fünfte Teilwertung größer als die aktuelle Bestwertung ist. Wenn die fünfte Teilwertung nicht größer als die aktuelle Bestwertung ist, geht die Steuerung zum Schritt 1044 über, um zu bestimmen, ob noch ein anderer Satz von potenziellen Kanten auszuwerten ist. Wenn die fünfte Teilwertung größer als die aktuelle Bestwertung ist, geht die Steuerung ansonsten zu einem Schritt 1034k über. Im vorliegenden Beispiel geht, da die Wertung von 114% nicht größer als die aktuelle Bestwertung von 200% ist, die Steuerung zum Schritt 1044 über.
  • In Schritt 1034k wird die aktuelle Bestwertung auf die fünfte Teilwertung eingestellt. Die Steuerung geht zu Schritt 1044 über.
  • Obwohl die in 4a veranschaulichte Ausführungsform lediglich mit Bezug auf den Teilsatz von Kanten, einschließlich der horizontalen Kante 136 2, der linken vertikalen Kante 140 und der rechten vertikalen Kante 142, beschrieben wurde, versteht sich, dass die in 4a genannten Schritte auf einen beliebigen Teilsatz von Kanten angewandt werden können.
  • Eine andere Ausführungsform der vorliegenden Erfindung wird unter Bezugnahme auf die 5, 6a und 6b veranschaulicht.
  • Mit Bezug auf die 1, 5, 6a und 6b werden die Bilddaten 130 in einem Schritt 210 durch den Bildempfänger 104 an dem Fahrzeug 100 erfasst. Die Bilddaten 130 werden in dem Prozessor 110 in einem Schritt 212 empfangen. Das Fahrzeugerkennungs- und Messmodul 106 bestimmt einen Abstand zu dem sich voraus befindenden Fahrzeug 108 z. B. unter Verwendung eines Radarsignals und sendet den Abstand an den Prozessor 110 in einem Schritt 214.
  • Basierend auf dem Abstand zum sich voraus befindenden Fahrzeug 108, der in Schritt 214 empfangen wurde, bestimmt der Prozessor 110 eine Anzahl der Bildpunkte 132 in einer Einheitslänge (z. B. einem (1) Meter) in einem Schritt 216. In einer Ausführungsform ist die Anzahl der Bildpunkte 132 in der Einheitslänge in sowohl der vertikalen Richtung (z. B. der y-Richtung) als auch der horizontalen Richtung (z. B. der x-Richtung) in den Bilddaten 130 gleich.
  • Eine erste Zeile 134 der Bildpunkte 132 wird in einem Schritt 220 identifiziert. Es wird in Betracht gezogen, dass die erste Zeile 134 als vorbestimmter Abstand von einem Boden des Fahrzeugs ausgewählt wird. Daher wird, wenn gewünscht ist, dass sich die erste Zeile 134 etwa einen (1) Meter von einem Boden des sich voraus befindenden Fahrzeugs 108 befindet, und wenn in Schritt 216 bestimmt wird, dass fünfundzwanzig der Bildpunkte 132 in den Bilddaten 130 einem (1) Meter entsprechen, die erste Zeile 134 in Schritt 220 als die Bildpunkte 132 1-256,25 identifiziert.
  • Ein jeweiliger vertikaler Füllfaktor wird entlang jeder der Spalten in der ersten Zeile 134 bestimmt. Beispielsweise wird in einem Schritt 222 eine vorbestimmte Länge (und eine entsprechende Anzahl der Bildpunkte 132) für den vertikalen Füllfaktor in jeder Spalte bestimmt. In einer Ausführungsform wird bestimmt, dass der vertikale Füllfaktor für jede der Spalten für einen (1) Meter (z. B. fünfundzwanzig (25) Bildpunkte 132) bestimmt wird. Daher wird in einem Schritt 224 der vertikale Füllfaktor für die erste Spalte in der ersten Zeile 134 bestimmt. Konkret wird im veranschaulichten Beispiel der vertikale Füllfaktor für die fünfundzwanzig aufeinanderfolgenden Bildpunkte ab dem ersten (z. B. ganz linken) Bildpunkt in der ersten Zeile (d. h. ab dem Bildpunkt 132 1,25) bestimmt. Daher wird der vertikale Füllfaktor für die erste Spalte gemäß den Bildpunkten 132 1-25,49 bestimmt (was fünfundzwanzig Bildpunkte in der ersten Spalte umfasst).
  • In einer Ausführungsform wird der vertikale Füllfaktor als Anteil der Bildpunkte, die dunkel sind, bestimmt. In dem veranschaulichten Beispiel sind zwanzig (20) der fünfundzwanzig (25) Bildpunkte in der 100. Spalte 132 100,25-49 dunkel, da eine Lücke 136 in den Bilddaten 130 vorhanden ist. Lücken können in den Bilddaten 130 sogar entlang einer Kante des sich voraus befindenden Fahrzeugs 108 aufgrund von Reflexionen, Artefakten usw., die vom Bildempfänger 104 in Schritt 210 empfangen werden, vorhanden sein. Da das veranschaulichte Beispiel 20/25 dunkle Bildpunkte von den Bildpunkten 132 100,25-49 enthält, wird der vertikale Füllfaktor für die 100. Spalte als 80% bestimmt.
  • Nachdem der vertikale Füllfaktor in Schritt 224 bestimmt wurde, geht die Steuerung zu einem Schritt 226 über, um zu bestimmen, ob der vertikale Füllfaktor für die letzte Spalte bestimmt wurde. Wenn der vertikale Füllfaktor nicht für die letzte Spalte bestimmt wurde, geht die Steuerung zu einem Schritt 230 über, um die nächste Spalte einzustellen (nachdem z. B. die Bildpunkte 132 1,25-49 ausgewertet wurden, werden die Bildpunkte 132 2,25-49 der zweiten Spalte als die aktuellen Bildpunkte eingestellt). Die Steuerung kehrt dann zum Schritt 224 zurück, um den vertikalen Füllfaktor für die aktuelle Spalte zu bestimmen. Wenn im Schritt 226 bestimmt wird, dass der vertikale Füllfaktor für die letzte Spalte (z. B. für die Bildpunkte 132 256,25-49) bestimmt wurde, geht die Steuerung zu einem Schritt 232 über.
  • In Schritt 232 werden die vertikalen Füllfaktoren für die Spalten in der ersten Zeile 134 in absteigender Reihenfolge angeordnet. Eine Paarsumme wird als Summe eines Paares der vertikalen Füllfaktoren für zwei (2) verschiedene Säulen identifiziert. In einem Schritt 234 werden jeweilige Paarsummen für die vertikalen Füllfaktoren für die Spalten in der ersten Zeile 134 berechnet. In einer Ausführungsform werden die Paarsummen zunächst unter Anwendung der höchsten vertikalen Füllfaktoren berechnet. Wenn z. B. die vertikalen Füllfaktoren in der absteigenden Reihenfolge für die erste Zeile 134 90% (d. h. 0,9), 85%, 80%, 70% ... 15%, 10%, 2% betragen, werden die Paarsummen als 90% + 85% (d. h. 175%), 90% + 80% (d. h. 170%), 85% + 80% (d. h. 165%), 90% + 70% (d. h. 160%) ... 10% + 2% (d. h. 12%) berechnet. Gegebenenfalls werden, um den erforderlichen Verarbeitungsaufwand (und Zeitaufwand) zu verringern, nur die vertikalen Füllfaktoren über einem vorbestimmten Schwellenwert (z. B. über 60%) zur Bestimmung der Paarsummen verwendet. In einem Schritt 236 werden die Paarsummen in absteigender Reihenfolge angeordnet. Im vorliegenden Beispiel sind die Paarsummen bereits in absteigender Reihenfolge angegeben (d. h. 175%, 170%, 165%, 160% ... 12%). Der Schritt 236 stellt sicher, dass die Paarsummen in der absteigenden Reihenfolge vorliegen.
  • Wie oben erörtert, kann ein Fahrzeug gemäß einer U-Form definiert werden. Im veranschaulichten Beispiel repräsentieren die Paare der vertikalen Füllfaktoren, die mit den Paarsummen assoziiert sind, potenzielle Kanten (z. B. Seiten) des sich voraus befindenden Fahrzeugs 108, die als Spalten in den Bilddaten 130 wiedergegeben werden. Daher muss ein Mindestabstand (z. B. ein (1) Meter) zwischen den Spalten in den Paarsummen vorhanden sein. Die Paarsummen mit dem Mindestabstand zwischen den Spalten werden in einem Schritt 240 identifiziert. Beispielsweise entspricht ein Mindestabstand von einem (1) Meter fünfundzwanzig Bildpunkten 132 im vorliegenden Beispiel. Daher werden in Schritt 240 nur die Paarsummen mit vertikalen Füllfaktoren, die mindestens fünfundzwanzig Bildpunkte voneinander entfernte Spalten wiedergeben, identifiziert.
  • In einem Schritt 242 werden die in Schritt 240 identifizierten Paarsummen ausgewertet, um jene mit einer Paarsumme über einem vorbestimmten Schwellenwert zu identifizieren. In einer Ausführungsform beträgt der vorbestimmte Schwellenwert 160%. Somit sind in dem oben erörterten Beispiel die Paarsummen von 175%, 170% und 165% größer als der vorbestimmte Schwellenwert von 160%. Ein Gesamtfüllfaktor für die U-Form umfasst sowohl die vertikalen Füllfaktoren als auch einen horizontalen Füllfaktor zwischen den zwei (2) vertikalen Füllfaktoren. Wenn ein Gesamtfüllfaktor von mindestens 260% gewünscht wird, würden sämtliche der in Schritt 242 identifizierten Paarsummen einen maximalen berechneten Füllfaktor von mindestens 260% bereitstellen, wenn der horizontale Füllfaktor zwischen den zwei (2) vertikalen Füllfaktoren 100% beträgt. Wenn z. B. der horizontale Füllfaktor zwischen den zwei (2) vertikalen Füllfaktoren der Paarsumme von 175% 100% beträgt, liegt der maximale berechnete Füllfaktor bei 275% (d. h. 175% (90% + 85% für die zwei (2) vertikalen Füllfaktoren) + ein potenzieller horizontaler Füllfaktor von 100%). Somit umfassen die jeweiligen maximalen berechneten Füllfaktoren den horizontalen Füllfaktor im besten Fall (z. B. 100%) in Kombination mit den bekannten vertikalen Füllfaktoren. In dem oben erörterten Beispiel betragen die maximalen berechneten Füllfaktoren 275% (175% + 100%), 270% (170% + 100%), 265% (165% + 100%) und 260% (160% + 100%).
  • Die jeweiligen horizontalen Füllfaktoren für jede der in Schritt 242 identifizierten Paarsummen werden in Schritt 244 identifiziert. Bei jeder der Paarsummen steht der horizontale Füllfaktor für einen Anteil der Bildpunkte 132, die zwischen den durch die vertikalen Füllfaktoren für diese Paarsumme repräsentierten Spalten „dunkel” sind. Beispielsweise liegt der horizontale Füllfaktor für die Paarsumme von 275% bei 40%, liegt der horizontale Füllfaktor für die Paarsumme von 270% bei 50%, liegt der horizontale Füllfaktor für die Paarsumme von 265% bei 80% und liegt der horizontale Füllfaktor für die Paarsumme von 260% bei 50%,
  • In einem Schritt 246 werden die Gesamtfüllfaktoren für die jeweiligen Paarsummen bestimmt. Demnach liegt der Gesamtfüllfaktor für die Paarsumme von 275% bei 315% (275% + 40%), liegt der Gesamtfüllfaktor für die Paarsumme von 270% bei 320% (270% + 50%), liegt der Gesamtfüllfaktor für die Paarsumme von 265% bei 345% (265% + 80%) und liegt der Gesamtfüllfaktor für die Paarsumme von 260% bei 310% (260% + 50%).
  • In einem Schritt 250 wird ein Gesamtfüllfaktor über einem vorbestimmten Schwellenwert für den Gesamtfüllfaktor identifiziert. In einem Beispiel wird, wenn der vorbestimmte Schwellenwert für den Gesamtfüllfaktor 340% beträgt, der Gesamtfüllfaktor von 345% als die vertikalen Kanten und die horizontale Kante, welche das sich voraus befindende Fahrzeug 108 definieren, umfassend identifiziert. Wenn mehr als ein Gesamtfüllfaktor größer als der Schwellenwert für den Gesamtfüllfaktor ist, wird der maximale Gesamtfüllfaktor zur Definition des sich voraus befindenden Fahrzeugs 108 ausgewählt.
  • Mit Bezug auf 7 veranschaulicht ein Blockdiagramm ein Computersystem 260, auf dem eine beliebige der oben erörterten beispielhaften Ausführungsformen implementiert werden kann. Das Computersystem 260 kann eingesetzt werden, um die Funktionalität des hier beschriebenen Fahrzeugerkennungs- und Messmoduls 106 zu implementieren.
  • Das Computersystem 260 umfasst einen Bus 262 oder anderen Kommunikationsmechanismus zur Übertragung von Informationen und den mit dem Bus 262 verbundenen Prozessor 110 zur Verarbeitung von Informationen. Das Computersystem 260 umfasst ferner einen Hauptspeicher 264, wie z. B. einen Direktzugriffspeicher (Random Access Memory, RAM) oder eine andere dynamische Speichervorrichtung, der mit dem Bus 262 verbunden ist, zum Speichern von Informationen und Anweisungen, die vom Prozessor 110 auszuführen sind. Der Hauptspeicher 264 kann ferner verwendet werden, um eine temporäre Variable oder andere Zwischeninformation während der Ausführung von durch den Prozessor 110 auszuführenden Anweisungen zu speichern. Das Computersystem 260 umfasst ferner einen Festwertspeicher (Read-Only Memory, ROM) 266 oder eine andere statische Speichervorrichtung, der bzw. die mit dem Bus 262 verbunden ist, zum Speichern von statischen Informationen und Anweisungen für den Prozessor 110. Eine Speichervorrichtung 270, wie z. B. eine Magnetspeicherplatte, eine optische Speicherplatte und/oder ein Flash-Speicher, zum Speichern von Informationen und Anweisungen ist mit dem Bus 262 über eine Speicherschnittstelle (SST) 272 verbunden.
  • Das Computersystem 260 kann über einen Eingang/Ausgang (E/A) (SST) 274 mit einer Benutzerschnittstelle 276 verbunden sein. Die Benutzerschnittstelle 276 kann geeigneterweise eine Anzeige, wie z. B. eine Kathodenstrahlröhre (CRT) oder eine Flüssigkristallanzeige (LCD), zum Anzeigen von Informationen an einen Computerbenutzer umfassen. Die Benutzerschnittstelle 276 kann ferner eine Eingabevorrichtung, wie z. B. eine Tastatur, die alphanumerische und andere Tasten umfasst, zur Übertragung von Informationen und Befehlauswahlen an den Prozessor 110 umfassen. Eine andere Art von Benutzereingabevorrichtung ist die Cursorsteuerung, wie z. B. eine Maus, ein Trackball, Cursor-Pfeiltasten und/oder ein Touchscreen, zur Übertragung von Richtungsinformationen und Befehlauswahlen an den Prozessor 110 und zur Steuerung der Cursorbewegung in der Anzeige. Diese Eingabevorrichtung verfüngt typischerweise über zwei Freiheitsgrade in zwei Achsen, einer ersten Achse (z. B. x) und einer zweiten Achse (z. B. y), mithilfe derer die Vorrichtung Positionen in einer Ebene definieren kann.
  • Während die vorliegende Erfindung anhand der Beschreibung von Ausführungsformen davon veranschaulicht wurde und während die Ausführungsformen sehr detailliert beschrieben wurden, besteht die Absicht der Anmelder nicht darin, den Geltungsbereich der beigefügten Ansprüche auf diese Details einzuschränken oder in irgendeiner Weise zu begrenzen. Zusätzliche Vorteile und Modifikationen liegen für den Fachmann ohne Weiteres auf der Hand. Daher ist die Erfindung in ihren allgemeineren Aspekten nicht auf die konkreten Details, die repräsentative Vorrichtung und die veranschaulichenden Beispiele, die dargestellt und beschrieben werden, beschränkt. Demnach können Abweichungen von diesen Details vorgenommen werden, ohne vom Sinn oder Geltungsbereich des allgemeinen Erfindungsgedankens der Anmelder abzuweichen.

Claims (29)

  1. Verfahren zum Identifizieren eines besten Elements aus einer Mehrzahl von jeweils unterschiedlichen Elementen, wobei das Verfahren Folgendes umfasst: Auswählen einer aktuellen Bestwertung; Identifizieren eines Satzes von Attributen, die mit jedem der Elemente assoziiert sind; für jeden der Sätze von Attributen: Bestimmen einer bestmöglichen Wertung für einen Teilsatz des Satzes von Attributen; wenn die bestmögliche Wertung größer als die aktuelle Bestwertung ist, Bestimmen einer tatsächlichen Wertung für den Satz von Attributen; und wenn die tatsächliche Wertung für den Satz von Attributen größer als die aktuelle Bestwertung ist, Einstellen der aktuellen Bestwertung als die tatsächliche Wertung für den Satz von Attributen; und nach den beiden Bestimmungsschritten und dem Einstellungsschritt für jeden der Sätze von Attributen Identifizieren des mit der aktuellen Bestwertung assoziierten Elements.
  2. Verfahren zum Identifizieren eines besten Elements nach Anspruch 1, ferner umfassend: Identifizieren jeweiliger erster Komponentenwerte für jeden der Sätze von Attributen.
  3. Verfahren zum Identifizieren eines besten Elements nach Anspruch 2, ferner umfassend: Sortieren der ersten Komponentenwerte; und für jeden der Sätze von Attributen Durchführen der beiden Bestimmungsschritte und des Einstellungsschritts basierend auf den sortierten ersten Komponentenwerten.
  4. Verfahren zum Identifizieren eines besten Elements nach Anspruch 3, ferner umfassend: für jeden der Sätze von Attributen Durchführen der beiden Bestimmungsschritte und des Einstellungsschritts in absteigender Reihenfolge der sortierten ersten Komponentenwerte.
  5. Verfahren zum Identifizieren eines besten Elements nach Anspruch 2, ferner umfassend: Identifizieren der ersten Komponentenwerte, die größer als ein vorbestimmter Schwellenwert sind; und Sortieren der ersten Komponentenwerte, die größer als der vorbestimmte Schwellenwert sind; und für jeden der sortierten ersten Komponentenwerte, die größer als der vorbestimmte Schwellenwert sind, Durchführen der beiden Bestimmungsschritte und des Einstellungsschritts in einer auf den sortierten ersten Komponentenwerten basierenden Reihenfolge.
  6. Verfahren zum Identifizieren eines besten Elements nach Anspruch 5, wobei der Schritt des Durchführens der beiden Bestimmungsschritte und des Einstellungsschritts in einer auf den sortierten ersten Komponentenwerten basierenden Reihenfolge Folgendes umfasst: für jeden der sortierten ersten Komponentenwerte, die größer als der vorbestimmte Schwellenwert sind, Durchführen der beiden Bestimmungsschritte und des Einstellungsschritts in absteigender Reihenfolge der sortierten ersten Komponentenwerte.
  7. Verfahren zum Identifizieren eines besten Elements nach Anspruch 1, wobei der Schritt des Bestimmens der tatsächlichen Wertung für den Satz der Attribute Folgendes umfasst: Bestimmen der tatsächlichen Wertung basierend auf tatsächlichen Komponentenwerten für jede einer Mehrzahl von Komponenten des Satzes von Attributen.
  8. Verfahren zum Identifizieren eines besten Elements nach Anspruch 1, wobei der Schritt des Identifizierens des Satzes von Attributen, die mit jedem der Elemente assoziiert sind, Folgendes umfasst: Identifizieren des Satzes von Attributen als eine Mehrzahl von mit jedem der Elemente assoziierten Komponentenwerten umfassend.
  9. Verfahren zum Identifizieren eines besten Elements nach Anspruch 8, wobei der Schritt des Identifizierens des Satzes von Attributen als eine Mehrzahl von mit jedem der Elemente assoziierten Komponentenwerten umfassend Folgendes umfasst: Identifizieren einer horizontalen Kante, einer linken vertikalen Kante und einer rechten vertikalen Kante eines Objekts.
  10. Verfahren zum Identifizieren eines besten Elements nach Anspruch 9, wobei der Schritt des Bestimmens der bestmöglichen Wertung Folgendes umfasst: Bestimmen der bestmöglichen Wertung basierend auf Werten von i) wenigstens zweien aus einem tatsächlichen Füllgrad der horizontalen Kante, einem tatsächlichen Füllgrad der linken vertikalen Kante, einem tatsächlichen Füllgrad der rechten vertikalen Kante, einer maximalen horizontalen Lücke der horizontalen Kante und einer Überlappung der linken und rechten vertikalen Kante und ii) besten Werte für die übrigen der horizontalen Kante, der linken vertikalen Kante, der rechten vertikalen Kante, der maximalen horizontalen Lücke der horizontalen Kante und der Überlappung der linken und rechten vertikalen Kante.
  11. Verfahren zum Identifizieren eines besten Elements nach Anspruch 10, wobei der Schritt des Bestimmens der tatsächlichen Wertung für den Satz von Attributen Folgendes umfasst: ferner umfassend: Bestimmen der jeweiligen tatsächlichen Füllwerte der horizontalen Kante, der linken vertikalen Kante und der rechten vertikalen Kante.
  12. Verfahren zum Identifizieren eines besten Elements nach Anspruch 11, wobei das Bestimmen der tatsächlichen Füllwerte Folgendes umfasst: Bestimmen eines in einem Bild vorhandenen Anteils der jeweiligen horizontalen Kante, linken vertikalen Kante und rechten vertikalen Kante; und Bestimmen der jeweiligen tatsächlichen Füllwerte basierend auf den Anteilen.
  13. Verfahren zum Identifizieren eines besten Elements nach Anspruch 9, ferner umfassend: Bestimmen, ob ein tatsächlicher Bildpunkt am linken Ende der horizontalen Kante innerhalb eines vorbestimmten Abstands zu einem tatsächlichen Bildpunkt am unteren Ende der linken vertikalen Kante liegt; und Bestimmen, ob ein tatsächlicher Bildpunkt am rechten Ende der horizontalen Kante innerhalb eines vorbestimmten Abstands zu einem tatsächlichen Bildpunkt am unteren Ende der rechten vertikalen Kante liegt.
  14. Verfahren zum Identifizieren eines besten Elements nach Anspruch 9, ferner umfassend: Bestimmen, ob eine Überlappung der linken vertikalen Kante und der rechten vertikalen Kante über einem vorbestimmten Schwellenwert liegt.
  15. Verfahren zum Identifizieren eines besten Elements nach Anspruch 9, ferner umfassend: wenn die horizontale Kante, die linke vertikale Kante und die rechte vertikale Kante mit der Zeit erneut identifiziert werden, Bestätigen, dass die horizontale Kante, die linke vertikale Kante und die rechte vertikale Kante das Objekt repräsentieren.
  16. Steuerung zum Identifizieren eines besten Elements aus einer Mehrzahl von jeweils unterschiedlichen Elementen, wobei die Steuerung Folgendes umfasst: Mittel zum Auswählen einer aktuellen Bestwertung; Mittel zum Identifizieren eines Satzes von Attributen, die mit jedem der Elemente assoziiert sind; Mittel zum Auswerten jedes der Sätze von Attributen durch: Bestimmen einer bestmöglichen Wertung für einen Teilsatz des Satzes von Attributen; wenn die bestmögliche Wertung größer als die aktuelle Bestwertung ist, Bestimmen einer tatsächlichen Wertung für den Satz von Attributen; und wenn die tatsächliche Wertung für den Satz von Attributen größer als die aktuelle Bestwertung ist, Einstellen der aktuellen Bestwertung als die tatsächliche Wertung für den Satz von Attributen; und Mittel zum Identifizieren des mit der aktuellen Bestwertung assoziierten Elements, nachdem jeder der Sätze von Attributen ausgewählt wurde.
  17. Steuerung nach Anspruch 16, wobei das Mittel zum Identifizieren: jeweilige erste Komponentenwerte für jeden der Sätze von Attributen identifiziert; die ersten Komponentenwerte sortiert; und die Auswertung jedes der Sätze von Attributen basierend auf den sortierten ersten Komponentenwerten durchführt.
  18. Steuerung nach Anspruch 17, wobei das Mittel zum Identifizieren: die Auswertung jedes der Sätze von Attributen in absteigender Reihenfolge der sortierten ersten Komponentenwerte durchführt.
  19. Steuerung nach Anspruch 17, wobei das Mittel zum Identifizieren: die ersten Komponentenwerte, die größer als ein vorbestimmter Schwellenwert sind, identifiziert; und die ersten Komponentenwerte, die größer als der vorbestimmte Schwellenwert sind, sortiert; und die Auswertung jedes der Sätze von Attributen mit den ersten Komponentenwerten, die größer als der vorbestimmte Schwellenwert sind, durchführt.
  20. Steuerung nach Anspruch 16, wobei das Mittel zum Identifizieren: den Satz von Attributen als eine Mehrzahl von mit jedem der Elemente assoziierten Komponentenwerten umfassend identifiziert.
  21. Steuerung nach Anspruch 20, wobei das Mittel zum Identifizieren: eine horizontale Kante, eine linke vertikale Kante und eine rechte vertikale Kante eines Objekts identifiziert.
  22. Steuerung nach Anspruch 21, wobei das Mittel zum Auswerten: die bestmögliche Wertung basierend auf Werten von i) wenigstens zweien aus einem tatsächlichen Füllgrad der horizontalen Kante, einem tatsächlichen Füllgrad der linken vertikalen Kante, einem tatsächlichen Füllgrad der rechten vertikalen Kante, einer maximalen horizontalen Lücke der horizontalen Kante und einer Überlappung der linken und rechten vertikalen Kante und ii) besten Werte für die übrigen der horizontalen Kante, der linken vertikalen Kante, der rechten vertikalen Kante, der maximalen horizontalen Lücke der horizontalen Kante und der Überlappung der linken und rechten vertikalen Kante bestimmt.
  23. Steuerung nach Anspruch 22, wobei das Mittel zum Auswerten: die jeweiligen tatsächlichen Füllwerte der horizontalen Kante, der linken vertikalen Kante und der rechten vertikalen Kante basierend auf jeweiligen in einem Bild vorhandenen Anteilen der horizontalen Kante, der linken vertikalen Kante und der rechten vertikalen Kante bestimmt.
  24. Steuerung nach Anspruch 21, wobei das Mittel zum Auswerten: bestimmt, ob ein tatsächlicher Bildpunkt am linken Ende der horizontalen Kante innerhalb eines vorbestimmten Abstands zu einem tatsächlichen Bildpunkt am unteren Ende der linken vertikalen Kante liegt; und bestimmt, ob ein tatsächlicher Bildpunkt am rechten Ende der horizontalen Kante innerhalb eines vorbestimmten Abstands zu einem tatsächlichen Bildpunkt am unteren Ende der rechten vertikalen Kante liegt.
  25. Steuerung nach Anspruch 21, wobei das Mittel zum Auswerten: bestimmt, ob eine Überlappung der linken vertikalen Kante und der rechten vertikalen Kante über einem vorbestimmten Schwellenwert liegt.
  26. Steuerung zum Identifizieren eines potenziellen Fahrzeugs in einem Bild, wobei die Steuerung Folgendes umfasst: Mittel zum Auswählen einer aktuellen Bestwertung; Mittel zum Identifizieren eines Satzes von Attributen, umfassend drei Komponenten, die mit jedem einer Mehrzahl von potenziellen Fahrzeugen in dem Bild assoziiert sind; Mittel zum Auswerten jedes der Sätze von Attributen der potenziellen Fahrzeuge durch: Bestimmen einer bestmöglichen Wertung, umfassend eine bestmögliche Teilwertung für höchstens zwei der Komponenten; wenn die bestmögliche Wertung größer als die aktuelle Bestwertung ist, Bestimmen einer tatsächlichen Wertung basierend auf tatsächlichen Komponentenwertungen für alle drei der Komponenten; und wenn die tatsächliche Wertung größer als die aktuelle Bestwertung ist, Einstellen der aktuellen Bestwertung als die tatsächliche Wertung; und Mittel zum Identifizieren des potenziellen Fahrzeugs als durch die mit der aktuellen Bestwertung assoziierten Komponenten repräsentiert, wobei die aktuelle Bestwertung nach jedem der Sätze von Attributen ausgewertet wird.
  27. Steuerung zum Identifizieren eines potenziellen Fahrzeugs in einem Bild nach Anspruch 26, wobei: das Mittel zum Identifizieren die drei Komponenten als eine horizontale Kante, eine linke vertikale Kante und eine rechte vertikale Kante eines Objekts identifiziert; und das Mittel zum Auswerten: bestimmt, ob ein tatsächlicher Bildpunkt am linken Ende der horizontalen Kante innerhalb eines vorbestimmten Abstands zu einem tatsächlichen Bildpunkt am unteren Ende der linken vertikalen Kante liegt; und bestimmt, ob ein tatsächlicher Bildpunkt am rechten Ende der horizontalen Kante innerhalb eines vorbestimmten Abstands zu einem tatsächlichen Bildpunkt am unteren Ende der rechten vertikalen Kante liegt.
  28. Steuerung zum Identifizieren eines potenziellen Fahrzeugs in einem Bild nach Anspruch 27, wobei das Mittel zum Auswerten: bestimmt, ob eine Überlappung der linken vertikalen Kante und der rechten vertikalen Kante über einem vorbestimmten Schwellenwert liegt.
  29. Steuerung zum Identifizieren eines potenziellen Fahrzeugs in einem Bild nach Anspruch 26, wobei das Mittel zum Identifizieren: die Sätze von Attributen gemäß einer ersten der Komponenten sortiert; die Auswertung jedes der Sätze von Attributen basierend auf den sortierten ersten Komponenten über einem vorbestimmten Wert durchführt.
DE102015106459.6A 2014-04-30 2015-04-27 System und verfahren zur auswertung von daten Pending DE102015106459A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/266,402 2014-04-30
US14/266,402 US9495609B2 (en) 2014-04-30 2014-04-30 System and method for evaluating data

Publications (1)

Publication Number Publication Date
DE102015106459A1 true DE102015106459A1 (de) 2015-11-05

Family

ID=54326144

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015106459.6A Pending DE102015106459A1 (de) 2014-04-30 2015-04-27 System und verfahren zur auswertung von daten

Country Status (2)

Country Link
US (1) US9495609B2 (de)
DE (1) DE102015106459A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10762681B2 (en) 2018-06-26 2020-09-01 Here Global B.V. Map generation system and method for generating an accurate building shadow
US11164031B2 (en) * 2018-06-26 2021-11-02 Here Global B.V. System and method for analyzing an image of a vehicle
US11518380B2 (en) * 2018-09-12 2022-12-06 Bendix Commercial Vehicle Systems, Llc System and method for predicted vehicle incident warning and evasion
US11238295B2 (en) * 2019-03-19 2022-02-01 International Business Machines Corporation Distributed processing of a digital image

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
USRE36656E (en) 1991-05-21 2000-04-11 International Business Machines Corporation Generalized shape autocorrelation for shape acquistion and recognition
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6785329B1 (en) 1999-12-21 2004-08-31 Microsoft Corporation Automatic video object extraction
US6807286B1 (en) 2000-04-13 2004-10-19 Microsoft Corporation Object recognition using binary image quantization and hough kernels
US6907080B1 (en) 2000-06-07 2005-06-14 Intel Corporation Adaptive early exit techniques in image correlation
JP2001357484A (ja) 2000-06-14 2001-12-26 Kddi Corp 道路異常検出装置
US7738730B2 (en) 2006-01-25 2010-06-15 Atalasoft, Inc. Method of image analysis using sparse hough transform
CN101110100B (zh) 2006-07-17 2012-05-02 松下电器产业株式会社 检测包含任意线段组合的形状的方法及装置
US8428118B2 (en) 2006-08-17 2013-04-23 Ittiam Systems (P) Ltd. Technique for transcoding MPEG-2/MPEG-4 bitstream to H.264 bitstream
US8150207B2 (en) 2007-12-31 2012-04-03 Intel Corporation Accelerating the hough transform
US8280158B2 (en) 2009-10-05 2012-10-02 Fuji Xerox Co., Ltd. Systems and methods for indexing presentation videos
DE112012002885B4 (de) 2011-07-08 2022-01-27 Bendix Commercial Vehicle Systems Llc Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
US20130185131A1 (en) 2011-07-18 2013-07-18 Pradeep Sinha System and method for integrating social and loyalty platforms
US8768071B2 (en) * 2011-08-02 2014-07-01 Toyota Motor Engineering & Manufacturing North America, Inc. Object category recognition methods and robots utilizing the same
US8948454B2 (en) * 2013-01-02 2015-02-03 International Business Machines Corporation Boosting object detection performance in videos
US9098741B1 (en) * 2013-03-15 2015-08-04 Google Inc. Discriminitive learning for object detection
US8810779B1 (en) * 2013-03-25 2014-08-19 The United States Of America As Represented By The Secretary Of The Navy Shape matching automatic recognition methods, systems, and articles of manufacture

Also Published As

Publication number Publication date
US20150317536A1 (en) 2015-11-05
US9495609B2 (en) 2016-11-15

Similar Documents

Publication Publication Date Title
DE102009036474B4 (de) Bilddaten-Kompressionsverfahren, Mustermodell-Positionierungsverfahren bei Bildverarbeitung, Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und computerlesbares Aufzeichnungsmedium
EP1770635B1 (de) Iteratives Verfahren zur Interpolation von Bildinformationswerten
DE112015001902B4 (de) Elektronenmikroskopvorrichtung und sie verwendendes Abbildungsverfahren
DE102010053458B4 (de) Verfahren zur Aufbereitung von IR-Bildern und korrespondierende Wärmebildkamera
DE102004004641A1 (de) Dreidimensionale Reprojektions- und Rückprojektionsverfahren und Algorithmen zum Durchführen derselben
DE102015106459A1 (de) System und verfahren zur auswertung von daten
DE102008015535B4 (de) Verfahren zur Bildverarbeitung von Stereobildern
EP1605405B1 (de) Verfahren zur Ermittlung von Bewegungsvektoren, die Bildbereichen eines Bildes zugeordnet sind
DE112011101938T5 (de) Bildinterpolationsverfahren mit Entscheidungsmix
EP3073446B1 (de) Verfahren zum darstellen einer fahrzeugumgebung eines fahrzeuges
DE102008046505B4 (de) Verfahren zur Bildverarbeitung von Stereobildern
EP3035290B1 (de) Verfahren zur Erzeugung eines Anzeigedatensatzes durch Volumenrendern, Recheneinrichtung und Computerprogramm
EP3655920B1 (de) Verfahren und vorrichtung zur bewertung von bildausschnitten für eine korrespondenzbildung
DE102015120967A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
EP3635677A1 (de) Verfahren und vorrichtung zur bildkorrektur
DE102022102541A1 (de) Konfidenzgestütztes upsampling von kategoriekarten
DE112017007815T5 (de) Bildverarbeitungsvorrichtung, Bildvergrbeitungsverfahren und Bildverarbeitungsprogramm
DE112020006088T5 (de) Computerimplementiertes verfahren zum umwandeln eines eingangsbildes in ein ausgangsbild basierend auf einem referenzbild
DE102017216854B4 (de) Verfahren und Vorrichtung zum Bewerten von Korrespondenzen von Bildern, Betriebsassistenzverfahren und Betriebsvorrichtung
DE102014209623A1 (de) Bildverarbeitungsvorrichtung, Steuerverfahren, und Programm
EP1185084A2 (de) Bildkodierungsverfahren und Bildkodierer
DE102008048257B4 (de) Verfahren zur Detektion eines Blockrasters
EP1976288A1 (de) Iteratives Verfahren zur Interpolation von Bildinformationswerten
DE112014000784T5 (de) Zeichnungsdatenerzeugungsgerät, Zeichnungsdatenerzeugungsverfahren und Anzeigegerät
EP4099272A1 (de) Mikroskopiesystem und verfahren zum erzeugen stilisierter kontrastbilder

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: PATENT- UND RECHTSANWAELTE LOESENBECK, SPECHT,, DE

R012 Request for examination validly filed