DE102016113904A1 - Online Pro-Merkmal-Deskriptoranpassung - Google Patents

Online Pro-Merkmal-Deskriptoranpassung Download PDF

Info

Publication number
DE102016113904A1
DE102016113904A1 DE102016113904.1A DE102016113904A DE102016113904A1 DE 102016113904 A1 DE102016113904 A1 DE 102016113904A1 DE 102016113904 A DE102016113904 A DE 102016113904A DE 102016113904 A1 DE102016113904 A1 DE 102016113904A1
Authority
DE
Germany
Prior art keywords
descriptor
image
test points
error vector
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016113904.1A
Other languages
English (en)
Inventor
Andrew Richardson
Edwin Olson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
University of Michigan
Original Assignee
Ford Global Technologies LLC
University of Michigan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC, University of Michigan filed Critical Ford Global Technologies LLC
Publication of DE102016113904A1 publication Critical patent/DE102016113904A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Abstract

Ein Bildverarbeitungssystem beinhaltet eine Verarbeitungseinrichtung mit einer Speichereinrichtung zum Speichern von computerausführbaren Befehlen. Die Verarbeitungseinrichtung ist programmiert, einen ersten Deskriptor in einem ersten Bild zu definieren, eine Maske aus dem ersten Deskriptor zu erzeugen und einen zweiten Deskriptor in einem zweiten Bild zu definieren. Die Verarbeitungseinrichtung ist ferner programmiert, den ersten Deskriptor mit dem zweiten Deskriptor zu vergleichen, um einen ersten Fehlervektor zu definieren, einen zweiten Fehlervektor durch Anwenden einer Maske zu bestimmen und den Gesamtfehler des zweiten Fehlervektors zu berechnen, um einen Fehler zwischen dem ersten Deskriptor und dem zweiten Deskriptor zu bestimmen.

Description

  • HINTERGRUND
  • Merkmalsdeskriptoren, die durch eine Sequenz von zwei-Pixel-Intensitätsvergleichen erzeugt werden, sind dazu fähig, Bildmerkmale prägnant und schnell zu repräsentieren. Diese binären oder booleschen Stringdeskriptoren, die ein Ergebnis eines Vergleichs in einem einzigen Bit speichern, benötigen wenig Speicher pro Merkmal, was den Speicherplatzbedarf und die Netzwerkübertragungsbandbreite verringert. Berechnen und Abgleichen dieser Deskriptoren benötigt eine geringere Laufzeit im Vergleich zu Alternativen wie dem Scale-Invariant Feature Transform(SIFT)-Algorithmus und dem Speeded Up Robust Features(SURF)-Algorithmus bei vergleichbarer Abgleichgenauigkeit.
  • Das Binary Robust Independent Elementary Features(BRIEF)-Verfahren ist nennenswert aufgrund seiner Fähigkeit, Laufzeitverbesserungen durch die Verwendung von Vektorbefehlen zu erreichen. Eine Verringerung in der Speicherbenutzung und in der Laufzeit eignet sich für die Anforderungen von Echtzeitvisionsanwendungen mit hohem FPS.
  • KURZDARSTELLUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm eines beispielhaften Bildverarbeitungssystems zum Vergleichen von Blickwinkeländerungen in Bildern.
  • 2A veranschaulicht ein Beispielbild, das von dem Verarbeitungssystem von 1 verarbeitet wurde.
  • 2B veranschaulicht einen beispielhaften ersten Deskriptor mit mehreren ersten Testpunkten, die mit dem Beispielbild von 2A nach einem Weichzeichnen assoziiert sind.
  • 2C veranschaulicht einen beispielhaften Maskendeskriptor, der eine Teilmenge der ersten Testpunkte beinhaltet, wobei die Maske aus dem ersten, in dem Beispielbild von 2B nach dem Weichzeichnen gezeigten Deskriptor erzeugt wurde.
  • 2D veranschaulicht einen beispielhaften zweiten Deskriptor mit mehreren zweiten Testpunkten, die mit dem Beispielbild von 2A nach dem Weichzeichnen von einem anderen Blickwinkel aus gesehen assoziiert sind.
  • 3 ist ein Flussdiagramm eines beispielhaften Prozesses, der von dem Bildverarbeitungssystem ausgeführt werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Vergleiche unter Verwendung von BRIEF sind festgeschrieben und passen sich nicht an den Bildinhalt individueller Merkmale an. Demzufolge reagieren manche Tests empfindlich auf Blickwinkeländerung, da Intensitätswerte, die sich bei dem festgeschriebenen Abtastmuster verschieben, Veränderungen in den Testergebnissen bewirken können. Dies kann zu einer erhöhten Falschabgleichrate führen, da manche Testergebnisse nicht robust sind.
  • Erlernen einer einzigartigen Deskriptorstruktur für jedes Merkmal in einem Bild während der Laufzeit kann Blickwinkeländerungseffekte berücksichtigen. Dies beinhaltet Anpassen der Bildverarbeitung an boolesche Stringdeskriptoren, was diesen Ansatz für Echtzeitsysteme brauchbar macht. Ein beispielhaftes Bildverarbeitungssystem, das Blickwinkeländerungen berücksichtigen kann, beinhaltet eine Verarbeitungseinrichtung mit einer Speichereinrichtung zum Speichern von computerausführbaren Befehlen. Die Verarbeitungseinrichtung ist programmiert, einen ersten Deskriptor in einem ersten Bild zu definieren, eine Maske aus dem ersten Bild zu erzeugen und einen zweiten Deskriptor in einem zweiten Bild zu definieren. Die Verarbeitungseinrichtung ist ferner programmiert, den ersten Deskriptor mit dem zweiten Deskriptor zu vergleichen, um einen ersten Fehlervektor zu definieren, die Maske auf den ersten Fehlervektor anzuwenden, um einen zweiten Fehlervektor zu bestimmen, und die Einträge, die nicht null sind, im zweiten Fehlervektor zu zählen, um einen Fehler zwischen dem ersten Deskriptor und dem zweiten Deskriptor zu bestimmen.
  • Das vorgeschlagene System verwendet eine asymmetrische Arbeitsaufteilung zwischen Referenzmerkmalen und Abfragemerkmalen. Ein Referenzmerkmal kann in einem Schlüsselbild oder einer Karte enthalten sein, während ein Abfragemerkmal aus Live-Bildern extrahiert werden kann. Zusätzlich dazu kann eine asymmetrische Deskriptordarstellung für Referenz- und Abfragemerkmale verwendet werden.
  • Die Laufzeit für das Abgleichen mit dem vorgeschlagenen System kann trotz dieser Asymmetrie in ähnlichen Bereichen liegen, mit Verbesserungen in der Präzision und im Wiederabruf. Simulieren des Blickwinkeländerungseffekts auf Referenzmerkmalsdeskriptoren und Definieren eines geeigneten Gewichtsvektors, um unzuverlässige Intensitätstests zu unterdrücken, erreicht die Verbesserungen von Präzision und Wiederabruf.
  • Das vorgeschlagene System implementiert einen Prozess zur Berechnung von Deskriptorgewichtsvektoren mittels synthetischer Beobachtungen einer Bildfläche und bietet eine wirkungsvolle Abstandsfunktion für gewichtete Deskriptoren. Somit beinhaltet das vorgeschlagene System eine Erweiterung für BRIEF, die eine Pro-Merkmal-Anpassung ermöglicht, um ein Merkmal robust zu beschreiben. Dieses System, vorliegend als TailoredBRIEF bezeichnet, konzentriert sich auf die Deskriptor- und Abgleichaspekte und operiert online, wenn neue Merkmale detektiert werden.
  • Der BRIEF-Deskriptor fasst ein lokales Erscheinungsbild durch Intensitätstests zwischen Pixelpaaren, die ein Bildmerkmal einschließen, zusammen. Die booleschen Ausgaben der Tests werden effizient im Speicher mit jeweils einem Bit gespeichert. Durch die Speicherung auf diese Weise können die exklusiv-ODER(XOR)- und Populationszählungs(POPCNT)-Befehle verwendet werden, um die Anzahl von Bit-Fehlern zwischen zwei Deskriptoren effizient zu berechnen, was auch als Hamming-Distanz bekannt ist. Dieser prägnante Deskriptor kann relativ schnell abgeglichen werden, insbesondere im Vergleich zu Systemen wie etwa SURF.
  • Bevor ein BRIEF-Deskriptor berechnet wird, muss eine Menge von Testpunkten mittels beispielsweise einer Gauß-Verteilung oder einer anderen parametrisierten Zufallsverteilung definiert werden. Sobald sie einmal definiert sind, können dieselben Testpunkte wiederholt verwendet werden. Skaleninvarianz kann erreicht werden, indem die Größe der Positionen der Testpunkte gemäß dem Maßstab eines Merkmals angepasst werden.
  • Um einen Deskriptor für ein gegebenes Merkmal gemäß BRIEF zu bestimmen, werden für jedes skalierte Testpunktepaar beide Bildintensitäten relativ zur Position des Merkmals betrachtet. Falls die zweite Intensität höher ist, wird das entsprechende Bit im Deskriptor gesetzt. Beim Berechnen des Fehlers zwischen zwei Deskriptoren wird ein Fehlervektor erstellt, indem die Deskriptoren mit dem XOR-Befehl unterschieden werden und die Fehler mit POPCNT gezählt werden, um die Hamming-Distanz zu bestimmen.
  • Merkmalsabgleich kann durch Berechnen von nächsten Nachbarn eines Merkmalsvektors in einem Deskriptorraum erzielt werden, aber kann durch Erscheinungsbildänderungen eines Bildmerkmals aufgrund einer Vielzahl von Effekten, wie etwa Sensorrauschen, Beleuchtungsänderungen und Blickwinkeländerungen, erschwert werden. Für Deskriptoren, die aus zwei-Punkte-Intensitätsvergleichen bestehen, können diese Blickwinkeländerungen die Testpunkte auf der Bildfläche verschieben und können zu einem unterschiedlichen Ergebnis für einen bestimmten Intensitätsvergleich führen. Dies kann den Abgleichfehler für eine tatsächliche Übereinstimmung erhöhen, was die Falschabgleichrate erhöhen kann.
  • Der Blickwinkeländerungseffekt auf den Deskriptor kann simuliert werden, indem die Testpositionen transformiert werden und ein Deskriptor aus dem ursprünglichen Bild extrahiert wird. Dies entspricht dem Anwenden der inversen Transformation auf das Bild vor der Deskriptorextrahierung, ist aber einfacher, da die vollständige Menge von transformierten Testpositionen cache-gespeichert werden kann. Die unter einer simulierten Blickwinkeländerung berechneten Deskriptoren können dann mit dem ursprünglichen Deskriptor verglichen werden.
  • Durch das Online-Erlernen kann die Genauigkeit des auf Deskriptoren basierenden Merkmalsabgleichs verbessert werden. Dies kann hauptsächlich erreicht werden, indem der Effekt von Erscheinungsbildänderungen auf die Beschaffenheit eines individuellen Merkmalsdeskriptors berücksichtigt wird. Dies kann Simulieren des Ergebnisses dieser Erscheinungsbildänderungen beinhalten, um Trainingsdaten zu erzeugen, die im Gegenzug dazu verwendet werden können, einen booleschen Gewichtsvektor, als eine Deskriptormaske bezeichnet, zu erzeugen. Diese Maske kann wiederholt in der inneren Schleife des Abgleichprozesses verwendet werden, wenn der Abgleichfehler für ein bestimmtes Merkmalspaar berechnet wird.
  • Intensitätstests sind nicht gleichermaßen zuverlässig. Sogar für optimierte Testpunktepositionen existiert eine Bildfläche für ein gegebenes Paar von Testpunkten, dass bei einer kleinen Störung unterschiedliche Ergebnisse erzeugen wird. Falls Tests für individuelle Bildflächeninstanzen erlernt werden würden, könnte dieser Effekt minimiert werden.
  • Einzigartige Mengen von Testpunkten für jedes Referenzmerkmal könnten verwendet werden, um mehrere Deskriptoren für jedes Abfragemerkmal zu extrahieren. Dies würde jedoch die Rechenzeiten verlängern. Eine Alternative beinhaltet Extrahieren eines einzigen Deskriptors für jedes Bildmerkmal und Erlernen eines Gewichts für jeden Test. Angenommen, dass die Tests unabhängig voneinander sind und Fehler gemäß einer Bernoulli-Verteilung ergeben, kann die Wahrscheinlichkeit pi für jeden Test i durch Stichprobenentnahme von Blickwinkeländerungsparametern und angemessenes Verzerren der Bildfläche oder der Testpunkte abgeschätzt werden. Die Wahrscheinlichkeit eines richtigen Abgleichs kann als eine Funktion der Testfehler und der Bernoulli-Wahrscheinlichkeiten berechnet werden. Dies kann jedoch eine Schlüsseleigenschaft von BRIEF negieren, da es die Anzahl der Operationen erhöhen würde, die benötigt wird, um den Fehler zwischen zwei Deskriptoren zu berechnen. Eine Alternative kann Erlernen eines booleschen Gewichtsvektors und Anwenden einer UND-Operation auf diesen und den Fehlervektor beinhalten, um verrauschte Tests zu unterdrücken. Auf diese Weise kann die Teilmenge von Tests ausgewählt werden, die für eine bestimmte Bildfläche zuverlässig sind. Dieser boolesche Gewichtsvektor kann während des Abgleichens wirkungsvoll angewendet werden. Die booleschen Gewichte können wie im BRIEF-Deskriptor Bit-gepackt gespeichert werden.
  • Masken könnten für beide Merkmalsmengen anstatt für eine erlernt werden. Für viele System kann dies jedoch unnötig sein. Für Systeme wie visuelle Odometrie und visuelle SLAM können Referenzmerkmale nur periodisch hinzugefügt werden. Durch Ausnutzen dieser Asymmetrie kann ein Ausführen zusätzlicher Bearbeitungsschritte an den Referenzmerkmalen die Extrahierungszeit eines Deskriptors für die Abfragemerkmale nicht beeinflussen. Zusätzlich dazu kann sich die Speicherbenutzung nur für Referenzmerkmale erhöhen, die den zweifachen Speicher benötigen, während der Speicher für Abfragemerkmale unverändert bleiben kann.
  • Trainingsdaten, von denen eine Deskriptormaske berechnet werden soll, können erfasst werden, indem Stichproben von Blickwinkeländerungen von einheitlichen Verteilungen im Maßstab und in 3-Achsen-Rotation entnommen werden. Die vollständige Transformation ist in Gleichung 1 dargestellt, wobei R eine 3D-Rotationsmatrix repräsentiert, die aus Rotationstermen auf gleicher Ebene und außerhalb der Ebene, die aus Stichproben aus Verteilungen mit Erwartungswert Null entnommen wurden, erzeugt wurde. Die Koordinaten der ursprünglichen Testpunkte x und y im Bereich [–0,5, 0,5] sind rotiert. Das Ergebnis kann so projiziert werden, als ob es sich bei Streckeneinheit von einer Kamera mit Brennweite s befindet, wobei s aus einer Stichprobe einer Verteilung mit einem Mittelwert von 1 entnommen wird.
    Figure DE102016113904A1_0002
  • Während nur Stichproben von einer kleinen Anzahl von Blickwinkeländerungsparametern entnommen werden, könnten andere Terme, wie etwa additives Rauschen, ohne Weiteres in die Gleichung (1) integriert werden. Andere Blickwinkeländerungsparametrisierungen können verwendet werden.
  • Die transformierten Koordinaten der Testpunkte xp können einmalig berechnet und gespeichert werden. Erlernen der Deskriptormasken kann beinhalten: 1) Berechnen aller transformierten Deskriptoren; 2) Vergleichen des ursprünglichen Deskriptors mit jedem der transformierten Deskriptoren und Berechnen der Fehleranzahl für jeden Test i; 3) Schätzen der Stichprobenwahrscheinlichkeit pi(Fehler) für jeden Test und 4) falls pi(Fehler) größer als ein Schwellenwert ist, den Test i verwerfen, indem sein Gewicht Null gesetzt wird.
  • Weichzeichnen des Bildes vor dem Erlernen der Deskriptormaske kann einen nennenswerten Einfluss auf die Wiederholbarkeit von Tests haben. Das Bild kann unter Verwendung von beispielsweise einem Boxfilter weichgezeichnet werden. Das Weichzeichnen des Bildes unterdrückt nicht alle Sensitivitäten auf Blickwinkeländerungen und unterdrückt nicht, dass die Vorteile des Weichzeichnens und des Erlernens der Deskriptormaske nicht exklusiv sind.
  • Die dargestellten Elemente können viele verschiedene Formen annehmen und mehrere und/oder alternative Komponenten und Ausstattungen beinhalten. Die veranschaulichten beispielhaften Komponenten sind nicht als einschränkend auszulegen. Tatsächlich können zusätzliche oder alternative Komponenten und/oder Implementierungen verwendet werden.
  • 1 ist ein Blockdiagramm eines beispielhaften Bildverarbeitungssystems 100 zum Vergleichen von Blickwinkeländerungen in Bildern. Wie dargestellt, beinhaltet das Bildverarbeitungssystem 100 eine Verarbeitungseinrichtung 105 und eine Speichereinrichtung 110. Die Speichereinrichtung 110 kann eine elektronische Einrichtung mit flüchtigen oder nicht-flüchtigen Medien zum Speichern von computerausführbaren Befehlen beinhalten. Die Verarbeitungseinrichtung 105 kann eine beliebige elektronische Einrichtung beinhalten, die dazu konfiguriert und programmiert ist, auf in der Speichereinrichtung 110 gespeicherte computerausführbare Befehle zuzugreifen und diese auszuführen. Die Befehle können Befehle beinhalten, die mit einem Verarbeiten von Bildern assoziiert sind, die von einer Kamera 115 aufgenommen wurden, die in das Bildverarbeitungssystem 100 integriert sein kann oder nicht. Die Kamera 115 kann eine beliebige Bildaufnahmeeinrichtung beinhalten, die dazu konfiguriert ist, diverse (z.B. sequentielle) Bilder von beispielsweise unterschiedlichen Blickwinkeln relativ zu einem Referenzbild aufzunehmen. Die unterschiedlichen Blickwinkel können eine Ansicht eines Objektes im Referenzbild aber von einer anderen Distanz oder einem anderen Winkel aus beinhalten. Somit kann das Objekt relativ zu demselben, im Referenzbild abgebildeten Objekt skaliert oder rotiert sein. Wie zuvor erörtert, können unterschiedliche Blickwinkel gemäß Neigung, Gieren usw. relativ zum Referenzbild definiert sein.
  • Entsprechend der Beschreibung des TailoredBRIEF-Bildverarbeitungssystems 100 kann die Verarbeitungseinrichtung 105 programmiert sein, das erste, durch die Kamera 115 aufgenommene Bild zu erhalten. Ein beispielhaftes „erstes Bild“ oder „Referenzbild“ ist im Folgenden mit Bezug auf 2A dargestellt und beschrieben. Wie zuvor erörtert, kann die Verarbeitungseinrichtung 105 programmiert sein, das erste Bild weichzuzeichnen. Das Weichzeichnen des ersten Bildes kann beispielsweise Anwenden einer Boxfiltermethode auf das erste Bild beinhalten. Die Verarbeitungseinrichtung 105 kann programmiert sein, einen ersten Deskriptor anhand der weichgezeichneten oder der ursprünglichen Version des ersten Bildes zu definieren. Der erste Deskriptor kann mehrere erste Testpunkte beinhalten, wie im Folgenden mit Bezug auf 2B dargestellt und beschrieben ist.
  • Die Verarbeitungseinrichtung 105 kann programmiert sein, eine Maske aus dem ersten Deskriptor wie zuvor beschrieben zu erzeugen. Die Maske kann eine Teilmenge der mehreren ersten Testpunkte zulassen. Die Teilmenge kann beispielsweise jene Testpunkte beinhalten, die wahrscheinlich robust sind. Somit kann die Verarbeitungseinrichtung 105 programmiert sein, die mehreren ersten Testpunkte gegen Robustheit zu testen und eine Maske zu erzeugen, die nicht-robuste Testpunkte unterdrückt. Die Maske kann einen Bit-Wert für jeden Testpunkt beinhalten. Der Bit-Wert der über die Maske zuzulassenden Testpunkte kann beispielsweise einen Bit-Wert von 1 beinhalten.
  • Die Verarbeitungseinrichtung 105 kann ferner programmiert sein, ein zweites Bild zu erhalten. Wie zuvor erörtert, kann das zweite Bild eine Blickwinkeländerung der Kamera 115 relativ zu einem Objekt, das in dem ersten Bild repräsentiert ist, repräsentieren. Wie bei dem ersten Bild kann die Verarbeitungseinrichtung 105 programmiert sein, das zweite Bild weichzuzeichnen und einen zweiten Deskriptor basierend auf der weichgezeichneten Version des zweiten Bildes zu definieren. Das Weichzeichnen des zweiten Bildes kann beispielsweise Anwenden einer Boxfiltermethode auf das zweite Bild beinhalten. Die Verarbeitungseinrichtung 105 kann programmiert sein, den zweiten Deskriptor anhand der weichgezeichneten oder der ursprünglichen Version des zweiten Bildes zu definieren. Der zweite Deskriptor kann mehrere zweite Testpunkte beinhalten.
  • Die Verarbeitungseinrichtung 105 kann dann einen ersten Fehlervektor definieren. Das Definieren des ersten Fehlervektors kann Vergleichen des ersten Deskriptors mit dem zweiten Deskriptor beinhalten. Zum Beispiel kann die Verarbeitungseinrichtung 105 programmiert sein, eine exklusiv-ODER(XOR)-Operation auf den ersten Deskriptor und den zweiten Deskriptor anzuwenden. Um einen zweiten Fehlervektor zu bestimmen, der beispielsweise Fehler im ersten Fehlervektor unterdrückt, kann die Verarbeitungseinrichtung 105 programmiert sein, eine UND-Operation auf die Maske und den ersten Fehlervektor anzuwenden. Die Verarbeitungseinrichtung 105 kann ferner programmiert sein, einen Fehler zwischen dem ersten Deskriptor und dem zweiten Deskriptor zu identifizieren. Eine Möglichkeit, diesen Fehler zu berechnen, kann beispielsweise Anwenden einer Populationszählungs(POPCNT)-Operation auf den zweiten Fehlervektor beinhalten.
  • 2A2D stellen beispielhafte Beziehungen zwischen dem ersten und dem zweiten Deskriptor dar, die durch die Verarbeitungseinrichtung 105 bestimmt werden können. 2A veranschaulicht ein Beispielbild 200, das durch das mit Bezug auf 1 beschriebene Bildverarbeitungssystem 100 verarbeitet werden kann. Nun mit Bezug auf 2B kann das Bild 200 weichgezeichnet sein und der erste, durch die Linien 205 repräsentierte Deskriptor, kann mittels der zuvor beschriebenen Methoden bestimmt werden. Für Vereinfachungszwecke sind nur wenige der Linien 205, die den ersten Deskriptor repräsentieren, in 2B beschriftet. 2C veranschaulicht einen Maskendeskriptor 210, der aus dem mit Bezug auf 2B dargestellten ersten Deskriptor 205 erzeugt werden kann. Für Vereinfachungszwecke sind nur wenige der Linien 210, die den Maskendeskriptor repräsentieren, in 2C beschriftet. 2D veranschaulicht einen beispielhaften zweiten, durch die Linien 215 dargestellten Deskriptor, der mit dem Beispielbild von 2A, wie mit einem anderen Blickwinkel berechnet, assoziiert ist. Für Vereinfachungszwecke sind nur wenige der Linien 215, die den zweiten Deskriptor repräsentieren, in 2D beschriftet. Wie zuvor erläutert kann die Verarbeitungseinrichtung 105 den ersten und den zweiten Fehlervektor aus dem ersten Deskriptor, dem zweiten Deskriptor und der Maske, die in den 2B2D veranschaulicht sind, bestimmen.
  • 3 ist ein Flussdiagramm eines beispielhaften Prozesses 300, der von dem Bildverarbeitungssystem 100 ausgeführt werden kann. Zum Beispiel kann der Prozess 300 von der Verarbeitungseinrichtung 105 ausgeführt werden, um beispielsweise durch die Kamera 115 aufgenommene Bilder auszuwerten. Die Bilder können ein gemeinsames Objekt, aber von unterschiedlichen Blickpunkten aus, repräsentieren.
  • Bei Block 305 kann das Bildverarbeitungssystem 100 ein erstes Bild erhalten. Das erste Bild kann beispielsweise ein Bild eines mit der Kamera 115 aufgenommenen Objektes beinhalten. Das erste Bild kann auch als das „Referenzbild“ bezeichnet werden. Das erste Bild kann beispielsweise von der Verarbeitungseinrichtung 105 erhalten werden.
  • Bei Block 310 kann das Bildverarbeitungssystem 100 das erste Bild weichzeichnen. Die Verarbeitungseinrichtung 105 kann zum Beispiel das erste Bild durch Anwenden einer Boxfiltermethode auf das erste Bild weichzeichnen.
  • Bei Block 315 kann das Bildverarbeitungssystem 100 den ersten Deskriptor definieren, der mit dem ersten Bild assoziiert ist. In einem möglichen Ansatz kann die Verarbeitungseinrichtung 105 den ersten Deskriptor anhand der weichgezeichneten oder der ursprünglichen Version des ersten Bildes definieren. Der erste Deskriptor kann mehrere erste Testpunkte beinhalten.
  • Bei Block 320 kann das Bildverarbeitungssystem 100 eine Maske erzeugen. In einer möglichen Implementierung kann die Verarbeitungseinrichtung 105 die Maske erzeugen, um beispielsweise eine Teilmenge der Testpunkte im ersten Deskriptor zuzulassen. Die Verarbeitungseinrichtung 105 kann die Maske erzeugen, um jene Testpunkte einzuschließen, die wahrscheinlich am robustesten sind. Zum Beispiel kann die Verarbeitungseinrichtung 105 die ersten Testpunkte auf Robustheit gegenüber Blickwinkeländerung testen und unzuverlässige Testpunkte (d.h. Testpunkte mit einer Fehlerrate über einem vorbestimmten Schwellenwert) herausfiltern. Jegliche verbleibenden Testpunkte (d.h. die zuverlässigsten Testpunkte) können die Testpunkte bilden, die benutzt werden, um die Maske zu erzeugen. Die Maske kann einen Bit-Wert für jeden Testpunkt beinhalten. Der Bit-Wert der über die Maske zuzulassenden Testpunkte kann beispielsweise einen Bit-Wert von 1 beinhalten.
  • Bei Block 325 kann das Bildverarbeitungssystem 100 ein zweites Bild erhalten. Zum Beispiel kann die Verarbeitungseinrichtung 105 das zweite Bild von der Kamera 115 erhalten. Das zweite Bild kann eine Blickwinkeländerung der Kamera 115 relativ zu dem im ersten Bild repräsentierten Inhalt repräsentieren.
  • Bei Block 330 kann das Bildverarbeitungssystem 100 das zweite Bild weichzeichnen. Die Verarbeitungseinrichtung 105 kann in einem möglichen Ansatz das zweite Bild durch Anwenden einer Boxfiltermethode auf das zweite Bild weichzeichnen.
  • Bei Block 335 kann das Bildverarbeitungssystem 100 einen zweiten Deskriptor basierend auf der weichgezeichneten oder der ursprünglichen Version des zweiten Bildes definieren. Der zweite Deskriptor kann von der Verarbeitungseinrichtung 105 gemäß mehreren zweiten Testpunkten definiert werden.
  • Bei Block 340 kann das Bildverarbeitungssystem 100 den ersten Fehlervektor aus dem ersten und dem zweiten Deskriptor bestimmen. Definieren des ersten Fehlervektors kann beinhalten, dass die Verarbeitungseinrichtung 105 den ersten Deskriptor mit dem zweiten Deskriptor vergleicht. Zum Beispiel kann die Verarbeitungseinrichtung 105 eine exklusiv-ODER(XOR)-Operation auf den ersten Deskriptor und den zweiten Deskriptor anwenden.
  • Bei Block 345 kann das Bildverarbeitungssystem 100 den zweiten Fehlervektor (d.h. einen Maskenfehlervektor) bestimmen, der beispielsweise Fehler im ersten Fehlervektor unterdrückt. Um den zweiten Fehlervektor zu bestimmen, kann die Verarbeitungseinrichtung 105 eine UND-Operation auf die Maske und den ersten Fehlervektor anwenden.
  • Bei Block 350 kann das Bildverarbeitungssystem 100 einen Fehlerwert vom zweiten Fehlervektor identifizieren, um beispielsweise einen Fehler zwischen dem ersten und dem zweiten Deskriptor zu identifizieren. Zum Beispiel kann die Verarbeitungseinrichtung 105 eine Populationszählungs(POPCNT)-Operation auf den zweiten Fehlervektor anwenden.
  • Allgemein können beschriebene Datenverarbeitungssysteme und/oder -einrichtungen ein beliebiges einer Reihe von Computerbetriebssystemen einsetzen, einschließlich, jedoch keinesfalls darauf beschränkt, Versionen und/oder Varianten des Ford Sync®-Betriebssystems, des Microsoft Windows®-Betriebssystems, des Unix-Betriebssystems (z.B. des Solaris®-Betriebssystems, das von der Oracle Corporation in Redwood Shores, Kalifornien, USA, vertrieben wird), des AIX-UNIX-Betriebssystems, das von International Business Machines in Armonk, New York, USA, vertrieben wird, des Linux-Betriebssystems, der Betriebssysteme MAC OS X und iOS, die von der Apple Inc. in Cupertino, Kalifornien, USA, vertrieben werden, des BlackBerry OS, das von Blackberry, Ltd. in Waterloo, Kanada vertrieben wird, und des Android-Betriebssystems, das von Google Inc. und der Open Handset Alliance entwickelt wurde. Beispiele für Datenverarbeitungseinrichtungen umfassen ohne Einschränkung einen Computer im Fahrzeug, einen Arbeitsplatzcomputer, einen Server, einen Desktop-Computer, ein Notebook, einen Laptop oder einen handgehaltenen Computer oder ein anderes Datenverarbeitungssystem und/oder eine andere Datenverarbeitungseinrichtung.
  • Datenverarbeitungseinrichtungen beinhalten allgemein computerausführbare Befehle, wobei die Befehle durch eine oder mehrere Datenverarbeitungseinrichtungen ausführbar sind, wie den oben aufgeführten. Computerausführbare Befehle können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -technologien erstellt wurden, einschließlich, ohne Einschränkung, und entweder allein oder in Kombination, JavaTM, C, C++, Visual Basic, Java Script, Perl usw. Allgemein empfängt ein Prozessor (z.B. ein Mikroprozessor) Befehle z.B. von einem Speicher, einem computerlesbaren Medium usw. und führt diese Befehle aus, wodurch ein oder mehrere Prozesse durchgeführt wird bzw. werden, einschließlich eines oder mehrerer der vorliegend beschriebenen Prozesse. Derartige Befehle und andere Daten können unter Verwendung einer Vielfalt von computerlesbaren Medien gespeichert und übertragen werden.
  • Ein computerlesbares Medium (das auch als ein prozessorlesbares Medium bezeichnet wird) beinhaltet ein beliebiges nicht vergängliches (z.B. fassbares) Medium, das am Bereitstellen von Daten (z.B. Befehlen) teilnimmt, die von einem Computer (z.B. von einem Prozessor eines Computers) gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtige und flüchtige Medien. Zu nichtflüchtigen Medien können beispielsweise optische oder Magnetplatten und ein anderer permanenter Speicher zählen. Zu flüchtigen Medien kann beispielsweise ein dynamischer Direktzugriffsspeicher (DRAM) zählen, der in der Regel einen Hauptspeicher bildet. Derartige Befehle können von einem oder mehreren Übertragungsmedien übertragen werden, einschließlich Koaxialkabeln, Kupferdraht und Glasfasern, einschließlich der Drähte, die einen Systembus umfassen, der mit einem Prozessor eines Computers gekoppelt ist. Zu üblichen Formen von computerlesbaren Medien zählen beispielsweise eine Floppy-Disk, eine Diskette, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Papierband, ein beliebiges anderes physisches Medium mit Lochmustern, ein RAM, ein PROM, ein EPROM, ein FLASH-EEPROM, ein beliebiger anderer Speicherchip oder eine beliebige andere Speicherpatrone oder ein beliebiges anderes Medium, von dem ein Computer lesen kann.
  • Zu Datenbanken, Datenbehältern oder anderen Datenspeichern, die vorliegend beschrieben sind, können verschiedene Arten von Mechanismen zum Speichern und Abrufen verschiedener Arten von Daten sowie Zugreifen auf diese zählen, einschließlich einer hierarchischen Datenbank, eines relationalen Datenbankverwaltungssystems (RDMBS) usw. Jeder derartige Datenspeicher ist allgemein in einer Datenverarbeitungseinrichtung enthalten, die ein Computerbetriebssystem einsetzt, wie eines der oben erwähnten, und auf ihn wird mittels eines Netzes auf eine beliebige oder beliebige mehrere einer Vielfalt von Methoden zugegriffen. Auf ein Dateisystem kann durch ein Computerbetriebssystem zugegriffen werden und kann Dateien enthalten, die in verschiedenen Formaten gespeichert sind. Eine RDBMS setzt allgemein die Structured Query Language (SQL) neben einer Sprache zum Erstellen, Speichern, Bearbeiten und Ausführen gespeicherter Vorgänge, wie die oben erwähnte PL/SQL-Sprache.
  • In einigen Beispielen können Systemelemente als computerlesbare Befehle (z.B. Software) auf einer oder mehreren Datenverarbeitungseinrichtungen (z.B. Servern, Personalcomputern usw.) umgesetzt werden, die auf damit verbundenen computerlesbaren Medien (z.B. Platten, Speichern usw.) gespeichert ist. Ein Computerprogrammprodukt kann derartige Befehle, die auf computerlesbaren Medien gespeichert sind, zum Ausführen der hierin beschriebenen Funktionen umfassen.
  • In Bezug auf die vorliegend beschriebenen Prozesse, Systeme, Verfahren, Heuristik usw. versteht es sich, dass, obwohl die Schritte derartiger Prozesse usw. als gemäß einer bestimmten geordneten Abfolge erfolgend beschrieben wurden, derartige Prozesse mit den beschriebenen Schritten ausgeübt werden könnten, die in einer Reihenfolge durchgeführt werden, die sich von der hierin beschriebenen Reihenfolge unterscheidet. Es versteht sich weiterhin, dass bestimmte Schritte gleichzeitig durchgeführt werden könnten, dass andere Schritte hinzugefügt werden könnten oder dass bestimmte vorliegend beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt, die Beschreibungen von Prozessen hierin sind zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls als die Ansprüche einschränkend aufgefasst werden.
  • Dementsprechend versteht es sich, dass die obige Beschreibung veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, die sich von den bereitgestellten Beispielen unterscheiden, würden beim Lesen der obigen Beschreibung offensichtlich werden. Der Schutzumfang sollte nicht unter Bezugnahme auf die obige Beschreibung bestimmt werden, sondern sollte stattdessen unter Bezugnahme auf die angefügten Ansprüche bestimmt werden, zusammen mit dem vollen Schutzumfang von Äquivalenten, auf die derartige Ansprüche Anspruch haben. Es ist antizipiert und beabsichtigt, dass künftige Entwicklungen in den vorliegend erörterten Technologien erfolgen werden und dass die offenbarten Systeme und Verfahren in derartige künftige Ausführungsformen eingebunden werden. Zusammenfassend versteht es sich, dass die Anmeldung zur Modifizierung und Abänderung geeignet ist.
  • Alle in den Ansprüchen verwendeten Begriffe sind so beabsichtigt, dass ihnen ihre weitesten vernünftigen Deutungen und ihre gewöhnlichen Bedeutungen verliehen sind, wie sie von den Fachleuten in Bezug auf die vorliegend beschriebenen Technologien verstanden werden, sofern kein ausdrücklicher Hinweis auf das Gegenteil vorliegend gemacht wird. Insbesondere sollte die Verwendung der Artikel in der Einzahl, wie „ein/eine“, „der/die/das“, „besagter/besagte/besagtes“ usw. so gelesen werden, dass ein oder mehrere der angegebenen Elemente vorgetragen werden, sofern nicht ein Anspruch eine gegenteilige ausdrückliche Einschränkung vorträgt.
  • Die Zusammenfassung soll dem Leser gestatten, schnell die Natur der technischen Offenbarung festzustellen. Sie wird in dem Verständnis unterbreitet, dass sie nicht verwendet wird, um den Schutzbereich oder die Bedeutung der Ansprüche auszulegen oder zu beschränken. Außerdem können in der obigen ausführlichen Beschreibung verschiedene Merkmale in verschiedenen Ausführungsformen zusammen gruppiert worden sein, um die Offenbarung zu vereinheitlichen. Dieses Verfahren der Offenbarung sollte nicht mit einer Absicht widerspiegelnd interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale benötigen, als die in jedem Anspruch vorgetragen werden. Vielmehr, wie die folgenden Ansprüche widerspiegeln, liegt der Gegenstand der Erfindung in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Somit werden die folgenden Ansprüche hiermit in die ausführliche Beschreibung aufgenommen, wobei ein Anspruch als eine separate Ausführungsform für sich selbst steht.

Claims (20)

  1. Bildverarbeitungssystem, umfassend: eine Verarbeitungseinrichtung mit einer Speichereinrichtung zum Speichern von computerausführbaren Befehlen, wobei die Verarbeitungseinrichtung programmiert ist: einen ersten Deskriptor in einem ersten Bild zu definieren; eine Maske aus dem ersten Bild zu erzeugen; einen zweiten Deskriptor in einem zweiten Bild zu definieren; den ersten Deskriptor mit dem zweiten Deskriptor zu vergleichen, um einen ersten Fehlervektor zu definieren; einen zweiten Fehlervektor durch Anwenden der Maske zu bestimmen und einen Fehler zwischen dem ersten Deskriptor und dem zweiten Deskriptor mittels dem zweiten Fehlervektor zu bestimmen.
  2. Bildverarbeitungssystem nach Anspruch 1, wobei die Verarbeitungseinrichtung programmiert ist, das erste Bild vor dem Definieren des ersten Deskriptors weichzuzeichnen und das zweite Bild vor dem Definieren des zweiten Deskriptors weichzuzeichnen.
  3. Bildverarbeitungssystem nach Anspruch 1 oder Anspruch 2, wobei der erste Deskriptor mittels mehreren ersten Testpunkten berechnet wird und wobei der zweite Deskriptor mehrere zweite Testpunkte beinhaltet.
  4. Bildverarbeitungssystem nach Anspruch 3, wobei die Maske eine Teilmenge der mehreren ersten Testpunkte zulässt.
  5. Bildverarbeitungssystem nach Anspruch 4, wobei die Maske einen Bit-Wert für jeden aus der Teilmenge der mehreren ersten Testpunkte beinhaltet.
  6. Bildverarbeitungssystem nach einem der Ansprüche 3 bis 5, wobei Erzeugen der Maske beinhaltet: Testen der mehreren ersten Testpunkte auf Robustheit gegenüber Blickwinkeländerung; und Unterdrücken von unzuverlässigen Testpunkten von den mehreren ersten Testpunkten.
  7. Bildverarbeitungssystem nach einem der Ansprüche 1 bis 6, wobei Vergleichen des ersten Deskriptors mit dem zweiten Deskriptor Anwenden einer exklusiv-ODER(XOR)-Operation auf den ersten Deskriptor und den zweiten Deskriptor beinhaltet.
  8. Bildverarbeitungssystem nach einem der Ansprüche 1 bis 7, wobei Bestimmen des zweiten Fehlervektors Anwenden einer UND-Operation auf die Maske und den ersten Fehlervektor beinhaltet.
  9. Bildverarbeitungssystem nach Anspruch 8, wobei Anwenden der UND-Operation Fehler im ersten Fehlervektor unterdrückt.
  10. Bildverarbeitungssystem nach einem der Ansprüche 1 bis 9, wobei Vergleichen des ersten Deskriptors mit dem zweiten Deskriptor Anwenden einer Populationszählungs(POPCNT)-Operation auf den zweiten Fehlervektor beinhaltet.
  11. Bildverarbeitungssystem nach einem der Ansprüche 1 bis 10, ferner umfassend eine Kamera, die dazu konfiguriert ist, das erste Bild und das zweite Bild aufzunehmen, wobei das zweite Bild eine Blickwinkeländerung der Kamera relativ zum ersten Bild repräsentiert.
  12. Bildverarbeitungssystem nach Anspruch 11, wobei das erste Bild verwendet wird, um mehrere Deskriptoren und Masken zu erzeugen, und das zweite Bild verwendet wird, um mehrere Deskriptoren zu erzeugen, und wobei die Deskriptoren und die Masken, die aus dem ersten Bild erzeugt wurden, mit Deskriptoren verglichen werden, die aus mehreren nachfolgenden Bildern bestimmt wurden.
  13. Verfahren, umfassend Definieren eines ersten Deskriptors in einem ersten Bild; Erzeugen einer Maske aus dem ersten Deskriptor; Definieren eines zweiten Deskriptors in einem zweiten Bild; Vergleichen des ersten Deskriptors mit dem zweiten Deskriptor, um einen ersten Fehlervektor zu definieren; Bestimmen eines zweiten Fehlervektors durch Anwenden einer Maske; und Bestimmen eines Fehlers zwischen dem ersten Deskriptor und dem zweiten Deskriptor von dem zweiten Fehlervektor.
  14. Verfahren nach Anspruch 13, ferner umfassend: Weichzeichnen des ersten Bildes vor dem Definieren des ersten Deskriptors; und Weichzeichnen des zweiten Bildes vor dem Definieren des zweiten Deskriptors.
  15. Verfahren nach Anspruch 13 oder Anspruch 14, wobei der erste Deskriptor mehrere erste Testpunkte beinhaltet und wobei der zweite Deskriptor mehrere zweite Testpunkte beinhaltet.
  16. Verfahren nach Anspruch 15, wobei die Maske eine Teilmenge der mehreren ersten Testpunkte zulässt.
  17. Verfahren nach Anspruch 16, wobei Erzeugen der Maske beinhaltet: Testen der mehreren ersten Testpunkte auf Robustheit gegenüber Blickwinkeländerung; und Filtern von unzuverlässigen Testpunkten von den mehreren ersten Testpunkten.
  18. Verfahren nach einem der Ansprüche 13 bis 17, wobei Vergleichen des ersten Deskriptors mit dem zweiten Deskriptor Anwenden einer exklusiv-ODER(XOR)-Operation auf den ersten Deskriptor und den zweiten Deskriptor beinhaltet.
  19. Verfahren nach einem der Ansprüche 13 bis 18, wobei Bestimmen des zweiten Fehlervektors Anwenden einer UND-Operation auf die Maske und den ersten Fehlervektor beinhaltet, um Fehler in dem ersten Fehlervektor zu unterdrücken.
  20. Verfahren nach einem der Ansprüche 13 bis 19, wobei Vergleichen des ersten Deskriptors mit dem zweiten Deskriptor Anwenden einer Populationszählungs(POPCNT)-Operation auf den zweiten Fehlervektor beinhaltet.
DE102016113904.1A 2015-07-31 2016-07-27 Online Pro-Merkmal-Deskriptoranpassung Pending DE102016113904A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/814,630 2015-07-31
US14/814,630 US9811760B2 (en) 2015-07-31 2015-07-31 Online per-feature descriptor customization

Publications (1)

Publication Number Publication Date
DE102016113904A1 true DE102016113904A1 (de) 2017-02-02

Family

ID=57795742

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016113904.1A Pending DE102016113904A1 (de) 2015-07-31 2016-07-27 Online Pro-Merkmal-Deskriptoranpassung

Country Status (5)

Country Link
US (1) US9811760B2 (de)
CN (1) CN106447592B (de)
DE (1) DE102016113904A1 (de)
MX (1) MX362765B (de)
RU (1) RU2708955C2 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100345602B1 (ko) * 1999-11-03 2002-07-27 엘지정보통신주식회사 무선전화기에서 내부 호의 음성 및 데이터 신호의 확장방법
US11087200B2 (en) 2017-03-17 2021-08-10 The Regents Of The University Of Michigan Method and apparatus for constructing informative outcomes to guide multi-policy decision making
EP4165476A1 (de) 2020-07-01 2023-04-19 May Mobility, Inc. Verfahren und system zur dynamischen kuraration autonomer fahrzeugrichtlinien
JP2023553980A (ja) 2020-12-14 2023-12-26 メイ モビリティー,インコーポレイテッド 自律車両安全プラットフォームシステム及び方法
WO2022133242A1 (en) 2020-12-17 2022-06-23 May Mobility, Inc. Method and system for dynamically updating an environmental representation of an autonomous agent
WO2022212944A1 (en) 2021-04-02 2022-10-06 May Mobility, Inc. Method and system for operating an autonomous agent with incomplete environmental information
US11565717B2 (en) 2021-06-02 2023-01-31 May Mobility, Inc. Method and system for remote assistance of an autonomous agent
CN113408608A (zh) * 2021-06-17 2021-09-17 四川大学 一种基于计算机视觉的同类铜币的相似度分析方法
WO2023154568A1 (en) 2022-02-14 2023-08-17 May Mobility, Inc. Method and system for conditional operation of an autonomous agent

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969200A (en) * 1988-03-25 1990-11-06 Texas Instruments Incorporated Target autoalignment for pattern inspector or writer
KR100222989B1 (ko) * 1997-07-04 1999-10-01 윤종용 셔틀 방식의 독취 장치에서 독취된 이미지를 이진화하기 위한 이미지 처리 장치 및 방법
KR100413679B1 (ko) * 2000-10-21 2003-12-31 삼성전자주식회사 형상 기술자 추출방법
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
US7382897B2 (en) * 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
ATE470912T1 (de) 2006-04-28 2010-06-15 Toyota Motor Europ Nv Robuster detektor und deskriptor für einen interessenspunkt
GB0700468D0 (en) * 2007-01-10 2007-02-21 Mitsubishi Electric Inf Tech Improved image identification
US8774498B2 (en) 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
EP2695106B1 (de) 2011-04-08 2023-05-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Merkmalsbeschreibung für bildsegmente
WO2013029674A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method of matching image features with reference features
CN108022252A (zh) 2012-01-19 2018-05-11 索尼公司 图像处理设备和方法
US9747521B2 (en) 2012-10-11 2017-08-29 VideoGorillas LLC Frequency domain interest point descriptor
KR20140102038A (ko) 2013-02-13 2014-08-21 삼성전자주식회사 영상 정합 장치 및 영상 정합 방법
US20140310314A1 (en) * 2013-04-16 2014-10-16 Samsung Electronics Co., Ltd. Matching performance and compression efficiency with descriptor code segment collision probability optimization
RU2541918C2 (ru) * 2013-06-18 2015-02-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Южно-Российский государственный университет экономики и сервиса" (ФГБОУ ВПО "ЮРГУЭС") Устройство автоматизированного распознавания лиц при обработке групповой фотографии
US9652688B2 (en) * 2014-11-26 2017-05-16 Captricity, Inc. Analyzing content of digital images

Also Published As

Publication number Publication date
RU2016129943A (ru) 2018-01-29
US9811760B2 (en) 2017-11-07
CN106447592A (zh) 2017-02-22
RU2708955C2 (ru) 2019-12-12
CN106447592B (zh) 2021-10-15
MX2016009706A (es) 2017-04-25
MX362765B (es) 2019-02-07
RU2016129943A3 (de) 2019-09-27
US20170032217A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
DE102016113904A1 (de) Online Pro-Merkmal-Deskriptoranpassung
DE102018115440A1 (de) Techniken zum Trainieren tiefer neuronaler Netzwerke
DE102014210133A1 (de) Verfahren und System zur adaptiven Zeichensegmentierung für die automatische Nummerschilderkennung
DE102016120775A1 (de) System und Verfahren zum Erkennen von Linien in einem Bild mit einem Sichtsystem
WO2020192849A1 (de) Automatische erkennung und klassifizierung von adversarial attacks
EP3847578A1 (de) Verfahren und vorrichtung zur klassifizierung von objekten
EP3557487B1 (de) Generieren von validierungsdaten mit generativen kontradiktorischen netzwerken
DE102022202014A1 (de) Funktionstest für bewegliche Objekte in sicherheitskritischen Anwendungen mit räumlichem Darstellungslernen und kontradiktorischer Erzeugung
DE112021006280T5 (de) Generieren von daten auf grundlage von vorab trainierten modellen unter verwendung generierender konkurrierender modelle
DE112016006921T5 (de) Schätzung der menschlichen Ausrichtung in Bildern unter Verwendung von Tiefeninformationen
DE102022110889A1 (de) Halbüberwachtes training grober labels bei bildsegmentierung
DE112018007277T5 (de) Vorrichtung und verfahren zur automatischen fehlerschwellenwerterkennung für bilder
DE60310766T2 (de) Beleuchtungsunabhängige gesichtserkennung
DE102019115224A1 (de) System und verfahren zum auffinden und klassifizieren von linien in einem bild mittels eines schichtsystems
DE112021004347T5 (de) Aktion-objekt-erkennung in überladenen videoszenen unter verwendung von text
DE102019127622B4 (de) Abwehrgenerator, Verfahren zur Verhinderung eines Angriffs auf eine KI-Einheit und computerlesbares-Speichermedium
DE102020212921A1 (de) Verfahren, Computerprogramm und Vorrichtung zum Bewerten einer Verwendbarkeit von Simulationsdaten
WO2016131812A1 (de) Mobilgerät zum erfassen eines textbereiches auf einem identifikationsdokument
DE102019217951A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Domänendistanz zwischen mindestens zwei Datendomänen
DE102018121317A1 (de) Verfahren und Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle
DE102018127738A1 (de) Kamerablockadeerfassung für autonome Fahrsysteme
DE102019219924B4 (de) Verfahren und Vorrichtung zum Erzeugen und Bereitstellen einer Datenbank mit darin hinterlegten Sensordatenpatches zur Verwendung beim Quilting
DE112010005852T5 (de) Erkennen eines Merkmals eines Bildes unabhängig von der Ausrichtung oder dem Massstab des Bildes
Kleinlein et al. Sampling Based On Natural Image Statistics Improves Local Surrogate Explainers
DE202021105594U1 (de) System zur automatischen Auswahl und/oder Bewertung mindestens eines KI-Moduls und zur Klassifikation und/oder Regression von Eingangsdaten, ein computerlesbares Speichermedium und ein System zur Klassifikation und/oder Regression von Eingangsdaten

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009200000

Ipc: G06V0030140000

R012 Request for examination validly filed