DE202016007816U1 - Das Entdecken von Unternehmen aus Bildern - Google Patents

Das Entdecken von Unternehmen aus Bildern Download PDF

Info

Publication number
DE202016007816U1
DE202016007816U1 DE202016007816.0U DE202016007816U DE202016007816U1 DE 202016007816 U1 DE202016007816 U1 DE 202016007816U1 DE 202016007816 U DE202016007816 U DE 202016007816U DE 202016007816 U1 DE202016007816 U1 DE 202016007816U1
Authority
DE
Germany
Prior art keywords
neural network
deep neural
bounding boxes
image
computing devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202016007816.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202016007816U1 publication Critical patent/DE202016007816U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

System, das Folgendes umfasst: ein tiefes neuronales Netzwerk; und eine oder mehrere Rechenvorrichtungen, die konfiguriert sind, um: das Trainieren des tiefen neuronalen Netzwerks unter Verwendung eines Satzes von Trainingsbildern und Daten, die einen oder mehrere Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, wobei das tiefe neuronalen Netzwerk in jedem Trainingsbild eine erste Vielzahl von Bounding-Boxes ausgibt; das am tiefen neuronalen Netzwerk durchgeführte Erhalten eines ersten Bildes; das unter Verwendung des tiefen neuronalen Netzwerks durchgeführte Bewerten des ersten Bildes; und das unter Verwendung des tiefen neuronalen Netzwerks durchgeführte Generieren einer Vielzahl von Bounding-Boxes, welche Geschäftsfassadenstandorte im ersten Bild identifizieren.

Description

  • VERWEIS
  • Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
  • HINTERGRUND DER ERFINDUNG
  • Die Fülle von geographisch gelegenen Fotografien auf Straßenniveau, die heutzutage im Internet zur Verfügung stehen, stellt eine einzigartige Gelegenheit dar, um von Menschen geschaffene Strukturen zu überwachen, um dazu beizutragen, präzise Karten zu erstellen. Beispiele derartiger Strukturen können örtliche Geschäfte, wie etwa Restaurants, Kleidergeschäfte, Tankstellen, Apotheken, Waschsalons, usw. beinhalten. Es besteht ein hohes Verbraucherinteresse an der Suche nach derartigen Geschäften mittels örtlich relevanter Anfragen auf beliebten Suchmaschinen. Das präzise Identifizieren der Existenz derartiger örtlicher Geschäfte weltweit stellt keine leichte Aufgabe dar.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Aspekte der Offenbarung stellen ein Verfahren bereit. Das Verfahren beinhaltet das unter Verwendung eines oder mehrerer Computergeräte durchgeführte Training eines tiefen neuronalen Netzwerks unter Verwendung eines Satzes von Trainingsbildern und Daten, welche einen oder mehrere Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, wobei das tiefe neuronalen Netzwerk, das eine erste Vielzahl von Bounding-Boxes auf jedem Trainingsbild ausgibt; das unter Verwendung des einen oder der mehreren Computergeräte durchgeführte Erhalten eines ersten Bildes; das unter Verwendung des einen oder der mehreren Computergeräte und eines tiefen neuronalen Netzwerks durchgeführte Bewerten des ersten Bildes; und das unter Verwendung des einen oder der mehreren Gittergeräte und des tiefen neuronalen Netzwerks durchgeführte Generieren einer zweiten Vielzahl von Bounding-Boxes, die Geschäftsfassadenstandorte im ersten Bild identifizieren.
  • In einem Beispiel beinhaltet das Verfahren auch das unter Verwendung eines oder mehrerer Computergeräte und des tiefen neuronalen Netzwerks durchgeführte Erfassen von geschäftsbezogenen Informationen an jedem der identifizierten Geschäftsfassadenstandorte; und das unter Verwendung eines oder mehrerer Computergeräte durchgeführte Aktualisieren einer Datenbank von geschäftsbezogenen Informationen durch das Hinzufügen von Informationen aus jeder Bounding-Box in die zweite Vielzahl von Bounding-Boxes mit den geschäftsbezogenen Informationen, die am Geschäftsfassadenstandort, der von der Bounding-Box identifiziert worden ist, erfasst werden. In diesem Beispiel beinhaltet das Verfahren auch das unter Verwendung eines oder mehrerer Computergeräte durchgeführte Erhalten einer Anfrage von einem Benutzer nach geschäftsbezogenen Informationen; und das unter Verwendung eines oder mehrerer Computergeräte durchgeführte Abrufen der angefragten geschäftsbezogenen Informationen aus der aktualisierten Datenbank.
  • In einem anderen Beispiel beinhaltet die zweite Vielzahl von Bounding-Boxes zwei Bounding-Boxes, die im ersten Bild, das zwei diskrete Geschäftsfassadenstandorte identifiziert, die nebeneinander angeordnet sind. In einem Beispiel beinhaltet das Trainieren des tiefen neuronalen Netzwerks ferner das Anwenden eines groben Schiebefensters auf einem Abschnitt eines gegebenen Trainingsbilds; und das Entfernen einer oder mehrerer Bounding-Boxes auf Basis eines Standorts des Abschnitts des gegebenen Trainingsbilds. In einem anderen Beispiel beinhaltet das Generieren einer zweiten Vielzahl von Bounding-Boxes auch das Anwenden eines groben Schiebefensters auf einem Abschnitt des ersten Bildes; und das Entfernen eines oder mehrerer Bounding-Boxes auf Basis eines Standorts des Abschnitts des gegebenen Trainingsbildes.
  • In einem noch weiteren Beispiel beinhaltet das Training des tiefen neuronalen Netzwerks auch das Ermitteln eines Konfidenzgrads für jede Bounding-Box, die eine Wahrscheinlichkeit repräsentiert, dass die Bounding-Box ein Bild einer Geschäftsfassade umfasst; und das Entfernen der Bounding-Boxes, die Bounding-Boxes mit einem Konfidenzgrad von weniger als einem eingestellten Schwellenwert entsprechen. In einem weiteren Beispiel beinhaltet das Generieren der zweiten Vielzahl von Bounding-Boxes auch das Ermitteln des Konfidenzgrades für jede Bounding-Box, die eine Wahrscheinlichkeit darstellt, dass die Bounding-Box ein Bild einer Geschäftsfassade umfasst; und das Entfernen der Bounding-Boxes-Standorte, die Bounding-Boxes mit einem Konfidenzgrad von weniger als einem eingestellten Schwellenwert entsprechen. In einem anderen Beispiel beinhaltet das Trainieren des tiefen neuronalen Netzwerks auch das Verwenden von Postklassifizierung; und das Generieren der zweiten Vielzahl von Bounding-Boxes umfasst ferner das Verwenden von Postklassifizierung.
  • In einem weiteren Beispiel beinhaltet das Generieren der zweiten Vielzahl von Bounding-Boxes das Berechnen einer Wahrscheinlichkeit einer gegebenen Bounding-Box, die über eine Geschäftsfassade verfügt; das Einstufen der zweiten Vielzahl von Bounding-Boxes auf Basis der berechneten Wahrscheinlichkeit; und das Entfernen der einen oder der mehreren Bounding-Boxes auf Basis der Einstufung. In einem noch weiteren Beispiel beinhaltet das Generieren der zweiten Vielzahl von Bounding-Boxes auch das Entfernen von Objekten in der zweiten Vielzahl von Bounding-Boxes, welche die Sicht auf die identifizierten Geschäftsfassadenstandorte blockiert. In einem anderen Beispiel handelt es sich bei den Trainingsbildern und den ersten Bildern um Panoramabilder.
  • Ein weiterer Aspekt der Offenbarung stellt ein System bereit. Das System beinhaltet ein tiefes neuronales Netzwerk und ein oder mehrere Computergeräte. Das eine oder die mehreren Computergeräte sind konfiguriert, das tiefe neuronalen Netzwerk unter Verwendung eines Satzes von Trainingsbildern und Daten, dazu zu trainieren, den einen oder die mehreren Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, wobei das tiefe neuronalen Netzwerk eine erste Vielzahl von Bounding-Boxes für jedes Trainingsbild ausgibt; ein erstes Bild am tiefen neuronalen Netzwerk zu erhalten; das erste Bild unter Verwendung des tiefen neuronalen Netzwerks zu bewerten; eine zweite Vielzahl von Bounding-Boxes, welche die Geschäftsfassadenstandorte im ersten Bild identifizieren, unter Verwendung eines tiefen neuronalen Netzwerks zu generieren.
  • In einem Beispiel werden das eine oder die mehreren der Geräte auch konfiguriert, um das tiefe neuronale Netzwerk zu trainieren, indem ein grobes Schiebefenster auf einen Abschnitt eines gegebenen Trainingsbildes angewendet wird und um eine oder mehrere Bounding-Boxes auf Basis eines Standorts des Abschnitts des gegebenen Trainingsbildes zu entfernen. In einem anderen Beispiel werden das eine oder die mehreren Computergeräte auch konfiguriert, um die zweite Vielzahl von Bounding-Boxes durch das Anwenden eines groben Schiebefensters auf einen Abschnitt des ersten Bildes zu generieren, und um eine oder mehrere Bounding-Boxes auf Basis eines Standorts des Abschnitts des gegebenen Trainingsbildes zu entfernen.
  • In einem noch weiteren Beispiel werden das eine oder die mehreren Computergeräte auch konfiguriert, um das tiefe neuronalen Netzwerk durch das Ermitteln eines Konfidenzgrades für jede Bounding-Box zu trainieren, die eine Wahrscheinlichkeit darstellt, dass die Bounding-Box ein Bild einer Geschäftsfassade umfasst; und um das tiefe neuronalen Netzwerk durch das Entfernen von Bounding-Boxes zu trainieren, die Bounding-Boxes mit einem Konfidenzgrad entsprechen, der geringer als ein eingestellter Stellenwert ausfällt. In einem weiteren Beispiel werden das eine die mehreren Computergeräte auch konfiguriert, um die zweite Vielzahl von Bounding-Boxes durch das Ermitteln der Konfidenzgrade für jede Bounding-Boxes, die eine Wahrscheinlichkeit darstellt, dass die Bounding-Boxes ein Bild einer Geschäftsfassade umfasst zu generieren, und um die zweite Vielzahl von Bounding-Boxes durch das Entfernen der Bounding-Boxes-Standorte, die Bounding-Boxes mit einem Konfidenzgrad der geringer als ein eingestellter Stellenwert ausfällt, entsprechen, zu generieren. In einem anderen Beispiel werden das eine oder die mehreren Computergeräte auch konfiguriert, um das tiefe neuronale Netzwerk durch das Verwenden von Postklassifizierung zu trainieren und um die zweite Vielzahl von Bounding-Boxes durch das Verwenden von Postklassifizierung zu generieren.
  • In einem weiteren Beispiel werden das eine oder die mehreren Computergeräte auch konfiguriert, um eine zweite Vielzahl von Bounding-Boxes durch das Berechnen einer Wahrscheinlichkeit einer gegebenen Bounding-Box, die eine Geschäftsfassade umfasst; durch das Einstufen der zweiten Vielzahl von Bounding-Boxes auf Basis der berechneten Wahrscheinlichkeit; und das Entfernen der einen oder der mehreren Bounding-Boxes auf Basis der Einstufung, zu generieren. In einem noch weiteren Beispiel werden das eine oder die mehreren Computergeräte auch konfiguriert, um die zweite Vielzahl von Bounding-Boxes durch das Entfernen von Objekten in der zweiten Vielzahl von Bounding-Boxes, welche die Sicht auf die identifizierten Geschäftsfassadenstandorte blockiert, zu generieren.
  • Ein weiterer Aspekt der Offenbarung stellt ein nicht transitorisches physisch greifbares computerlesbares Speichermedium bereit, auf dem computerlesbare Anweisungen eines Programms gespeichert werden. Die Anweisungen veranlassen das eine oder die mehreren Computergeräte, wenn sie von einem oder mehreren Computergeräten ausgeführt werden, ein Verfahren auszuführen. Das Verfahren beinhaltet das Trainieren eines tiefen neuronalen Netzwerks unter Verwendung eines Satzes von Trainingsbildern und Daten, welche einen oder mehrere Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, wobei das tiefe neuronale Netzwerk eine erste Vielzahl von Bounding-Boxes für jedes Trainingsbild ausgibt; ein erstes Bild unter Verwendung eines tiefen neuronalen Netzwerks erhalten; das erste Bild unter Verwendung des tiefen neuronalen Netzwerks bewerten; eine zweite Vielzahl von Bounding-Boxes, welche Geschäftsfassadenstandorte im ersten Bild identifizieren, unter Verwendung des tiefen neuronalen Netzwerks, generieren.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Funktionsdiagramm eines exemplarischen Systems gemäß Aspekten der Offenbarung.
  • 2 ist ein Bilddiagramm des exemplarischen Systems aus 1.
  • 3 ist ein exemplarisches Diagramm gemäß Aspekten der Offenbarung.
  • 4 ist ein anderes exemplarisches Diagramm gemäß Aspekten der Offenbarung.
  • 5 ist eine exemplarische Eingabe und Ausgabe gemäß Aspekten der Offenbarung.
  • 6 ist ein exemplarisches Flussdiagramm gemäß Aspekten der Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • ÜBERBLICK
  • Die Technologie betrifft automatisch das Generieren von Bounding-Boxes, welche bestimmte Geschäftsfassaden in Bildern identifizieren. Mit anderen Worten kann eine einzelne Bewertung eines Faltungsnetzwerks verwendet werden, um mehrere Bounding-Boxes zusammen mit ihren Konfidenzgraden zu prognostizieren. Durch das Verwenden von Deep-Learning in einem neuronalen Faltungsnetzwerk und bei der Postklassifizierung können Geschäftsfassaden in Panoramabildern im Vergleich zu anderen Verfahren mit hoher Genauigkeit und hoher Geschwindigkeit identifiziert werden. Das präzise Erfassen und Segmentieren von Geschäftsfassaden stellt Gelegenheiten bei der Nachbearbeitung dar, um Informationen über ein bestimmtes Geschäft extrahieren. Zum Beispiel können Text und Bilder extrahiert werden, um Informationen über ein identifiziertes Geschäft bereitzustellen, welche in manchen Fällen verwendet werden können, um den Standort eines Geschäfts genauer zu ermitteln.
  • Das Extrahieren von willkürlichen Geschäftsfassaden aus Fotografien auf Straßenniveau stellt ein schwer zu lösendes Problem dar. Die Komplexität beruht auf einen hohen Grad an Inter-Klassenvariabilität hinsichtlich der Erscheinung der Geschäftsfassaden innerhalb der Unternehmenskategorien und der Geographie, der damit verbundenen Mehrdeutigkeit des physikalischen Ausmaßes der Geschäftsfassade, der in Ballungsgebieten aneinander gereihten Geschäften, und der Größenordnung des Vorkommens von Geschäftsfassaden weltweit. Selbst für menschliche Annotatoren wird dies aufgrund dieser Faktoren zu einer mehrdeutigen Herausforderung. Bildaufnahmefaktoren, wie Rauschen, Bewegungsunschärfe, Abdeckungen, Beleuchtungsvariationen, Spiegelreflexionen, Perspektive, Geostandort-Fehler, usw. tragen ferner zur Komplexität dieses Problems bei. Es gibt möglicherweise Hunderte von Millionen von Unternehmen weltweit, und es könnte Milliarden von Bildern auf Straßenniveau geben. In Anbetracht der Größenordnung dieses Problems und der Umschlagrate der Geschäfte ist die manuelle Annotation untragbar und stellt keine nachhaltige Lösung dar. Für automatisierte Ansätze ist für das Erfassen von Geschäften weltweit innerhalb eines zumutbaren Zeitrahmens ein hoher Laufzeitwirkungsgrad höchst wünschenswert.
  • Das Erfassen von Geschäftsfassaden stellt die erste und wichtigste Stufe eines mehrstufigen Verfahrens für das Extrahieren verwertbarer Geschäftsauflistungen aus Bildern dar. Das präzise Erfassen von Geschäftsfassaden ermöglicht das Weiterverarbeiten wie etwa das Geolokalisieren der Geschäftsfassade, die OCR des Textes, das Extrahieren des Geschäftsnamens und sonstiger Attribute, das Einstufen in Kategorien, usw.
  • Ein neuronales Faltungsnetzwerk kann verwendet werden, um Geschäftsfassaden in Bildern zu erfassen. Faltungsnetzwerke sind neuronale Netzwerke, die Sätze von Knoten in gebundenen Parametern enthalten. Zunahmen der Größenordnung der verfügbaren Trainingsdaten und der Verfügbarkeit der Rechenleistung in Kombination mit algorithmischen Fortschritten, wie etwa stückweise linearen Einheiten und Dropout-Training, haben zu entscheidenden Verbesserungen im Rahmen vieler Computervisionsaufgaben geführt. Auf immensen Datensätzen, wie etwa denjenigen, die heutzutage für viele Aufgaben zur Verfügung stehen, stellt das Überanpassen ein Problem dar; das Vergrößern der Größe des Netzwerks stellt eine verbesserte Testgenauigkeit zur Verfügung. Das optimale Verwenden von Rechenressourcen wird zu einem begrenzenden Faktor. Zu diesem Zweck kann eine verteilte, skalierbare Implementierung des tiefen neuronalen Netzwerks verwendet werden.
  • Traditionell wird das Erfassen von Objekten durch das vollständige Suchen nach einem Objekt von Interesse im Bild durchgeführt. Derartige Ansätze führen zu einer Wahrscheinlichkeitskarte, welche der Existenz des Objekts an diesem Standort entspricht. Das Nachbearbeiten dieser Wahrscheinlichkeitskarte, entweder durch eine Nicht-Maxima-Unterdrückung oder Mean-Shift basierte Ansätze, generiert dann diskrete Erfassungsergebnisse. Um die Rechenkomplexität der vollständigen Suche entgegenzuwirken, kann eine selektive Suche, die Bildsegmentierungsverfahren verwendet, um mehrere Vorschläge generieren, die Anzahl der Parameter im Rahmen der Suche drastisch reduzieren.
  • Die hierin offenbarte Technologie bedient sich eines tiefen neuronalen Netzwerks, um die endgültigen Erfassungsergebnisse zuzuordnen und bedient sich eines voll erlernten Ansatzes von Pixeln zu diskreten Bounding-Boxes. Der End-to-End-Learnt-Ansatz hat den Vorteil, dass er das Generieren des Vorschlags und die Nachbearbeitung unter Verwendung eines einzelnen Netzwerks integriert, um eine große Anzahl von Vorschlägen und Kompetenzen zur selben Zeit zu prognostizieren. Das Verlassen auf die Konfidenzausgabe dieses Ansatzes allein kann Ergebnisse von hoher Qualität erzeugen, obwohl die Genauigkeit noch weiter verbessert werden kann, indem weitere dedizierte Postklassifikationsnetzwerke eingesetzt werden, um die höchsten Konfidenzvorschläge zu erhalten. Selbst mit dem zusätzlichen Postklassifizierungsstadium kann diese Technologie über eine schnellere Größenordnung als ihre Vorgänger verfügen.
  • Um das tiefe neuronale Netzwerk zu trainieren, kann der Einsatz von Trainingsbildern und Daten verwendet werden, um einen oder mehrere Geschäftsfassadenstandorte zu identifizieren. Unter Verwendung der Trainingsbilder kann das tiefe neuronale Netzwerk eine erste Vielzahl von Bounding-Boxes zusammen mit ihren entsprechenden Konfidenzgraden ausgeben. Die Konfidenzgrade jeder Bounding-Box können eine Wahrscheinlichkeit darstellen, gemäß der, eine Bounding-Box ein Bild einer Geschäftsfassade enthält. Jede Bounding-Box kann mit einem Geschäftsfassadenstandort abgeglichen werden. Im Training kann ein Trainingsbild unter Verwendung eines groben Schiebefensters, das auch unter dem Namen Multi-Crop-Auswertung bekannt ist, ausgewertet werden. Um das tiefe neuronale Netzwerk weiter zu trainieren, kann eine Postklassifizierung angewandt werden, um die Ergebnisse der Multi-Crop-Auswertung weiter zu differenzieren. Die Postklassifizierung kann das Berechnen einer Wahrscheinlichkeit einer gegebenen Bounding-Box beinhalten, die eine Geschäftsfassade enthält.
  • Das trainierte tiefe neuronale Netzwerk kann ein zu beurteilendes Bild erhalten. Merkmale des Bildes können unter Verwendung einer Multi-Crop-Auswertung und der Postklassifizierung identifiziert und ausgewertet werden. Auf Basis dieser Bewertung kann das tiefe neuronale Netzwerk eine zweite Vielzahl von Bounding-Boxes generieren, welche mögliche Geschäftsfassadenstandorte identifizieren, wobei jede Bounding-Box ein Bild einer einzigen Geschäftsfassade enthalten kann.
  • Exemplarische Systeme
  • 1 und 2 beinhalten ein exemplarisches System 100, in welchem die vorstehend beschriebenen Merkmale implementiert sein können. Dieses soll nicht als den Umfang der Offenbarung oder die Nützlichkeit der hierin beschriebenen Merkmale einschränkend betrachtet werden. In diesem Beispiel kann System 100 Computergeräte 110, 120, 130 und 140 sowie ein Speichersystem 150 beinhalten. Jedes Computergerät 110 kann einen oder mehrere Prozessoren 112, einen Speicher 114 und andere Komponenten enthalten, die üblicherweise in Universalcomputergeräten vorhanden sind. Speicher 114 des Computergerätes 110 kann Information speichern, die durch einen Prozessor oder durch mehrere Prozessoren 112 zugänglich sein kann, einschließlich der Anweisungen 116, die von einem Prozessor oder von mehreren Prozessoren 112 ausgeführt werden kann.
  • Speicher 114 kann außerdem Daten 118 enthalten, die durch den Prozessor abgerufen, manipuliert oder gespeichert werden können. Daten können Bilder beinhalten. Bei den Bildern kann es sich um Panoramabilder handeln oder um Bilder, die über Sichtfelder von mehr als 180 Grad, z. B. bis zu 360 Grad verfügen. Darüber hinaus können die Panoramabilder sphärisch oder fast sphärisch sein. Die Bilder können unterschiedliche Geschäftsfassaden abbilden, die mit Informationen in Bezug auf den Standort jeder Geschäftsfassade innerhalb jedes Bildes in Verbindung gebracht werden. Die Informationen können eine Reihe von Pixeln identifizieren, die eine einzelne Geschäftsfassade abbilden; zum Beispiel können einige Bilder Bounding-Boxes umfassen, die im Bild, auf dem sich jede Geschäftsfassade befindet, positioniert sind. Eine Anzahl dieser Bilder kann als Trainingsbilder identifiziert werden. Andere Bilder, die nicht mit Informationen hinsichtlich der Standorte dieser Geschäftsfassaden in Verbindung gebracht werden, können auch im Speicher gespeichert werden. Die Daten können auch den Geostandort jeder Geschäftsfassade beinhalten. Bei dem Speicher kann es sich um einen nicht transitorischen Speicher handeln, der in der Lage ist, Informationen, auf die der Prozessor zugreifen kann, zu speichern, wie etwa eine Festplatte, eine Speicherkarte, ROM, RAM, DVD, CD-ROM, beschreibbare Speicher und Read-Only-Speicher.
  • Die Anweisungen 116 können Sätze von Anweisungen jeglicher Art sein, die entweder auf direkte Weise, wie etwa als Maschinencode, oder auf indirekte Weise, wie etwa als Scripts, von dem einen oder den mehreren Prozessoren auszuführen sind. Diesbezüglich können die Begriffe „Anweisungen”, „Anwendung”, „Schritte” und „Programme” hierin austauschbar verwendet werden. Die Anweisungen können im Objektcodeformat zur direkten Verarbeitung durch einen Prozessor oder in jeder anderen Computergerätsprache einschließlich Scripts und Sammlungen von unabhängigen Sourcecodemodulen gespeichert werden, die auf Anfrage interpretiert oder im Voraus erstellt werden können. Die Anweisungen können Anweisungen beinhalten, welche das eine oder die mehreren Computergeräte, wie etwa Computergerät 110, dazu veranlassen sich wie ein tiefes neuronales Netzwerk zu verhalten. Funktionen, Verfahren und Routinen der Anweisungen werden unten ausführlicher erklärt.
  • Daten 118 können vom einen oder den mehreren Prozessoren 112 gemäß den Anweisungen 116 abgerufen, gespeichert oder modifiziert werden. Beispielsweise können, obwohl der hierin beschriebene Gegenstand nicht durch eine beliebige bestimmte Datenstruktur beschränkt ist, die Daten in Computerregistern, als Tabelle, die viele verschiedene Felder und Datensätze aufweist, oder XML-Dokumenten gespeichert werden. Die Daten können außerdem in einem beliebigen computergerätlesbaren Format wie, aber nicht beschränkt auf Binärwerten, ASCII oder Unicode formatiert sein. Des Weiteren können die Daten beliebige Informationen umfassen, die ausreichend sind, um die relevanten Informationen zu identifizieren, wie Zahlen, beschreibenden Text, proprietäre Codes, Zeiger, Referenzen auf Daten, die in anderen Speichern, wie etwa anderen Netzwerkstandorten gespeichert sind oder Informationen, die von einer Funktion verwendet werden, um die relevanten Daten zu berechnen, umfassen.
  • Der eine oder die mehreren Prozessoren 112 können beliebige herkömmliche Prozessoren sein, wie eine handelsübliche CPU. Alternativ können die Prozessoren dedizierte Komponenten sein, wie ein anwendungsspezifischer integrierter Schaltkreis („ASIC”) oder ein anderer hardwarebasierter Prozessor. Obwohl nicht nötig, können ein oder mehrere der Computergeräte 110 spezielle Hardware-Komponenten beinhalten, um spezifische Rechenprozesse schneller oder effizienter durchzuführen, wie Dekodieren von Video, Abgleichen von Videoeinzelbildern mit Bildern, Verzerren von Videos, Kodieren verzerrter Videos usw.
  • Obwohl 1 funktionsmäßig den Prozessor, Speicher und andere Elemente von Computergerät 110 als im gleichen Block befindlich darstellt, können der Prozessor, Computer, Computergerät oder Speicher tatsächlich mehrere Prozessoren, Computer, Computergeräte oder Speicher umfassen, die innerhalb desselben physischen Gehäuses gelagert sein können. Der Speicher kann zum Beispiel eine Festplatte oder andere Speichermedien sein, die sich in Gehäusen befinden, die sich von dem der Computergeräte 110 unterscheiden. Dementsprechend werden Referenzen auf einen Prozessor, Computer, Computergerät oder Speicher so verstanden, als sie Referenzen auf eine Sammlung von Prozessoren, Computern, Computergeräten oder Speichern beinhalten, die parallel arbeiten können oder nicht. Die Computergeräte 110 können beispielsweise Server-Computergeräte beinhalten, die als eine lastverteilende Serverfarm arbeiten. Weiterhin, obwohl einige der nachstehend beschriebenen Funktionen als auf einem einzigen Computergerät, das einen einzigen Prozessor aufweist, stattfindend beschrieben sind, können verschiedene Aspekte des hierin beschriebenen Gegenstandes durch eine Vielzahl von Computergeräten implementiert werden, beispielsweise Weitergabe von Informationen über ein Netzwerk 160.
  • Jedes der Computergeräte 110 kann sich an verschiedenen Knoten eines Netzwerks 160 befinden und fähig sein, direkt und indirekt mit anderen Knoten des Netzwerks 160 zu kommunizieren. Obwohl in den 12 nur einige Rechenvorrichtungen abgebildet sind, versteht es sich von selbst, dass ein typisches System eine große Anzahl an miteinander verbundenen Rechenvorrichtungen beinhalten kann, wobei jede einzelne Rechenvorrichtung sich an einem unterschiedlichen Knoten des Netzwerks 160 befindet. Das Netzwerk 160 kann ein tiefes neuronales Netzwerk sein, das Modelle mehrerer Schichten einsetzt, bei denen die Ausgaben der unteren Schichten verwendet werden, um die Ausgaben der höheren Niveauschichten auszubilden. Das Netzwerk 160 und dazwischenliegende Knoten, die hierin beschrieben sind, können unter Verwendung verschiedener Protokolle und Systeme vernetzt sein, so dass das Netzwerk Teil des Internets, Word Wide Web, spezifischer Intranets, Langstreckennetze oder lokaler Netzwerke sein kann. Das Netzwerk kann Standardkommunikationsprotokolle, wie Ethernet, WiFi und HTTP, Protokolle, die proprietär für ein oder mehrere Unternehmen sind und verschiedene Kombinationen der vorstehenden nutzen. Obwohl bestimmte Vorteile erzielt werden, wenn Informationen wie oben beschrieben übertragen oder empfangen werden, sind andere Aspekte des hierin beschriebenen Gegenstands nicht auf eine bestimmte Art der Übertragung von Informationen beschränkt.
  • Als ein Beispiel kann jedes der Computergeräte 110 Webserver beinhalten, die fähig sind, über das Netzwerk mit einem Speichersystem 150 sowie mit den Computergeräten 120, 130 und 140 zu kommunizieren. Ein oder mehrere der Server-Rechner 110 können zum Beispiel das Netzwerk 160 verwenden, um Informationen an einen Benutzer zu übertragen und diesem darzustellen, wie einem Benutzer 220, 230 oder 240, auf einer Anzeige, wie Anzeigen 122, 132 oder 142 der Computergeräte 120, 130 oder 140. In dieser Hinsicht können die Computergeräte 120, 130 und 140 als Client-Computergeräte angesehen werden und können alle oder einige der hierin beschriebenen Funktion durchführen.
  • Jede der Rechenvorrichtungen des Clients können wie vorstehend beschrieben, auf ähnliche Weise wie die Computervorrichtungen 110 des Servers mit einem oder mehreren Prozessoren, einem Speicher und Anweisungen konfiguriert werden. Bei jeder Rechenvorrichtung 120, 130 oder 140 des Client kann es sich um eine zur Verwendung durch einen Benutzer 220, 230, 240 vorgesehene persönliche Rechenvorrichtung handeln, die über sämtliche Komponenten verfügt, die normalerweise mit einem Personal-Computer in Verbindung gebracht werden, wie etwa eine zentrale Recheneinheit (CPU), ein Speicher (z. B. RAM und interne Festplatten), der Daten und Anweisungen speichert, ein Display, wie etwa Displays 122, 132, oder 142 (z. B. ein Monitor, der über einen Bildschirm, einen Touchscreen, einen Projektor, einen Fernseher und eine sonstige Vorrichtung verfügt, die betrieben werden können, um Informationen anzuzeigen), und ein Benutzereingabegerät 124 (z. B. eine Maus, eine Tastatur, einen Touchscreen oder ein Mikrofon). Die Client-Recheneinheit kann auch eine Kamera 126 zum Aufzeichnen von Video-Streams bzw. zur Aufnahme von Fotografien, Lautsprecher, ein Netzwerkschnittstellengerät und alle Komponenten zur Verbindung dieser Elemente miteinander, beinhalten.
  • Obwohl die Client-Computergeräte 120, 130 und 140 jeweils ein persönliches Computergerät in voller Größe umfassen können, können sie alternativ mobile Computergeräte umfassen, die fähig sind, Daten drahtlos über ein Netzwerk wie das Internet mit einem Server auszutauschen. Nur exemplarisch kann ein Client-Computergerät 120 ein Mobiltelefon oder eine Vorrichtung wie ein funkfähiger PDA, ein Tablet-PC oder ein Netbook sein, die in der Lage sind, Informationen über das Internet abzurufen. In einem anderen Beispiel kann Client-Computergerät 130 ein auf dem Kopf getragenes Computersystem sein. Als ein Beispiel kann der Benutzer Informationen unter Verwendung einer kleinen Tastatur, eines Tastenfeldes, Mikrofons, unter Verwendung visueller Signale mit einer Kamera oder eines Touchscreens eingeben.
  • Wie der Speicher 114 kann das Speichersystem 150 von einem beliebigen Typ von computerisiertem Speicher sein, der fähig ist, Informationen zu speichern, auf die von den Computergeräten 110 zugegriffen werden kann, wie eine Festplatte, Speicherkarte, ROM, RAM, DVD, CD-ROM, beschreibbare und schreibgeschützte Speicher. Zusätzlich kann das Speichersystem 150 ein verteiltes Speichersystem beinhalten, in dem Daten auf einer Vielzahl von verschiedenen Speichergeräten gespeichert werden, die physisch an den gleichen oder verschiedenen geografischen Standorten angeordnet sein können. Wie in 1 gezeigt, kann das Speichersystem 150 über das Netzwerk 160 mit Rechenvorrichtungen verbunden werden und/oder kann mit jeder der Rechenvorrichtungen 110140 (nicht dargestellt) direkt verbunden werden bzw. in den Speicher jeder dieser Rechenvorrichtungen integriert werden.
  • Speichersystem 150 kann auch Bilder speichern. Diese Bilder können unterschiedliche Arten von Bildern, wie etwa Panoramabilder oder Bilder, die über Sichtfelder von mehr als 180°, z. B. bis zu 360° verfügen, die unter anderem eine oder mehrere Geschäftsfassaden abbilden. In einigen Beispielen kann ein gegebenes Bild mit Geschäftsfassadeninformationen in Verbindung gebracht werden, welche den Standort jeder Geschäftsfassade innerhalb eines gegebenen Bildes identifizieren. Zum Beispiel können die Geschäftsfassaden Informationen für ein gegebenes Bild eine Reihe oder Reihen von Pixeln im gegebenen Bild beinhalten, die einer oder mehrerer Geschäftsfassaden und/oder Bildkoordinaten entsprechen, die einer Form eines oder mehrerer Geschäftsfassaden im gegebenen Bild entsprechen. Als ein Beispiel können die Geschäftsfassadeninformationen mittels Bounding-Boxes dargestellt werden, die jedem Geschäftsfassadenstandort im Bild entsprechen. Zumindest können einige der Bilder, wie unten besprochen, als Training Bilder identifiziert werden. Das Speichersystem 150 kann auch Geostandortinformationen oder Informationen hinsichtlich eines geographischen Standorts für eine Anzahl von Geschäftsfassaden beinhalten.
  • EXEMPLARISCHE VERFAHREN
  • Wie in 3 ersichtlich kann ein tiefes neuronales Netzwerk 310 durch das Verwenden eines Satzes von Trainingsbildern 320 trainiert werden. Diese Trainingsbilder 320 können Bilder des Speichersystems 150 beinhalten, die mit Geschäftsfassadeninformationen in Verbindung gebracht werden, die einen oder mehrere Geschäftsfassadenstandorte 330 im Satz von Trainingsbildern identifizieren. Wie oben angegeben, kann es sich bei den Geschäftsfassadeninformationen um eine Reihe oder mehrere Reihen von Pixeln handeln, die eine oder mehrere Geschäftsfassaden abbilden, die im zugeordneten Bild positioniert sind.
  • Das tiefe neuronale Netzwerk 310 kann verwendet werden, um Trainingsbilder unter Verwendung der Geschäftsfassadenstandortdaten für Standorte von Geschäftsfassaden innerhalb der Trainingsbilder zu bewerten. Ein grobes Schiebefenster, das auch unter dem Namen Multi-Crop-Auswertung bekannt ist, kann auf das Bild unter Verwendung des tiefen neuronalen Netzwerks angewendet werden. Jede Fensterposition kann als ein „Ausschnitt” des Bildes betrachtet werden. Im Vergleich zu dichten Schiebefensteransätzen reduziert der grobe Schiebefensteransatz die Anzahl der Schiebefenster um mehrere Größenordnungen. Das grobe Schiebefenster ist zum Beispiel in der Lage 100 Fenster für ein volles 360° Panoramabild einzusetzen. Im Vergleich dazu benötigt das dichte Schiebefenster mit hoher Wahrscheinlichkeit 300.000 Fenster um dasselbe zu erreichen. Einzelne Ausschnittbewertungen können auch gut funktionieren, aber für Panoramabilder mit hohen Auflösungen können kleinere Geschäftsfassaden nicht zuverlässig aus einer Version eines einzelnen Panoramabildes mit niedriger Auflösung erfasst werden. Demzufolge kann das Verwenden eines groben Schiebefensters die Qualität des Erfassens von Geschäftsfassaden verbessern.
  • Während des Trainings des tiefen neuronalen Netzwerks 310 kann eine erste Vielzahl von Bounding-Boxes 340, die auf einem Bild überlagert, identifiziert werden. Bei einer Bounding-Box kann es sich um ein Rechteck auf einem Bild handeln, das einen Abschnitt des sich darin befindlichen Bildes identifiziert. Bei einer Bounding-Box kann es sich auch um ein anderes Polygon oder um eine andere Form handeln. Die Form und Größe jeder Bounding-Box kann von der Form jedes Geschäftsfassadenstandorts abhängen.
  • Jede Bounding-Box 340 kann mit einem Geschäftsfassadenstandort auf Basis der Daten, die mit jedem Bild in Verbindung gebracht werden, abgeglichen werden. Nur ein Geschäftsfassadenstandort kann innerhalb einer einzelnen Bounding-Box enthalten sein, so dass Geschäftsfassadenstandorte, die sich direkt nebeneinander im Bild befinden, von separaten Bounding-Boxes definiert werden. Das Abgleichen kann ein Maximalgewichtabgleich beinhalten, bei dem das Kantengewicht zwischen dem Geschäftsfassadenstandort und einer gegebenen Bounding-Box mit der Menge der Überlagerung der Boxen in Beziehung steht. Zum Beispiel kann es sich bei dem Jaccard-Ähnlichkeitskoeffizienten um das Kantengewicht handeln, das als die Größe der Kreuzung definiert wird, die durch eine Größe der Einheit der gegebenen Bounding-Box und des Geschäftsfassadenstandorts geteilt wird.
  • Für einen Satz von Trainingsbildern, die mittels des tiefen neuronalen Netzwerks bewertet werden, kann das tiefe neuronale Netzwerk verwendet werden, um Koordinaten jeder Bounding-Box der ersten Vielzahl von Bounding-Boxes zu ermitteln. Bei den Koordinaten kann es sich um Bildkoordinaten handeln, wie etwa die Bildkoordinaten, die einem Geschäftsfassadenstandort entsprechen. Bildkoordinaten können vom Standort der Bounding-Box unter Verwendung eines Koordinatensystems definiert werden, das relativ zum Bild selbst ist oder Breitengrad-/Längengradkoordinaten oder sonstige andere Geostandortkoordinaten sein kann.
  • Ein Konfidenzgrad 350 kann für jede Bounding-Box 340 berechnet werden. Die Konfidenzgrade 350 jeder Bounding-Box der ersten Vielzahl von Bounding-Boxes können eine Wahrscheinlichkeit darstellen, gemäß der, eine Bounding-Box ein Bild einer Geschäftsfassade enthält.
  • Wenn ein Trainingsbild bewertet wird, können Bonnding-Boxes unter gewissen Umständen entfernt werden. Bounding-Boxes mit einem Konfidenzgrad, der unterhalb eines eingestellten Schwellenwerts liegt, können zum Beispiel entfernt werden. Eine Bounding-Box, die an einer Kante eines Ausschnitts des Bildes anliegt, kann entfernt werden, es sei denn bei der Kante des Ausschnitts kann es sich auch um eine Kante des Bildes handeln. Auf diese Weise kann eine Bounding-Box, die nicht vollständig über ein Objekt verfügt, entfernt werden und das Erfassen der Geschäftsfassaden ist präziser. Des Weiteren können alle Bounding-Boxes, die mehr als eine gegebene Entfernung von jedem gegebenen Ausschnitt entfernt liegen, auch entfernt werden.
  • Das tiefe neuronale Netzwerk 310 kann auch durch Postklassifizierung trainiert werden. Als Vorbereitung auf die Postklassifizierung kann eine affine Transformation auf ein rezeptives Feld des tiefen neuronalen Netzwerks angewandt werden. In der Postklassifizierung wird die erste Vielzahl von Bounding-Boxes, die von der Multi-Crop-Auswertung identifiziert werden, ferner klassifiziert werden, um die Ergebnisse zu differenzieren. Mit anderen Worten wird ein weiterer Klassifikator auf die Ergebnisse angewandt, um die Konfidenz, dass jede Bounding-Box einen Geschäftsfassadenstandort enthält, anzuheben. Zum Beispiel kann ein zweiter Konfidenzgrad für jede Bounding-Box ausgerechnet werden. Eine Wahrscheinlichkeit einer gegebenen Bounding-Box, die eine Geschäftsfassade umfasst, kann auf Basis der berechneten Konfidenzgrade ausgerechnet werden. Die Wahrscheinlichkeit kann durch Summierung der Produkte der Konfidenzgrade jeder Bounding-Box im tiefen neuronalen Netzwerk und der Konfidenzgrade jeder Bounding-Box in der Postklassifizierung ausgerechnet werden. Alternativ kann die Wahrscheinlichkeit durch Multiplikation der Konfidenzgrades im tiefen neuronalen Netzwerk und in der Postklassifizierung für eine gegebene Bounding-Box ausgerechnet werden.
  • Die Wahrscheinlichkeit kann verwendet werden, um die erste Vielzahl von Bounding-Boxes durch das Entfernen von Bounding-Boxes zu filtern, die mit Wahrscheinlichkeiten in Verbindung gebracht werden, die geringer als der eingestellte Schwellenwert ausfallen. Die Wahrscheinlichkeit kann auch verwendet werden, um die Bounding-Boxes einzustufen. Die erste Vielzahl von Bounding-Boxes kann auf Basis der Einstufung gefiltert werden. Zum Beispiel können die Bounding-Boxes, die unterhalb einer eingestellten Anzahl eingestuft werden, entfernt werden.
  • Während seines Training kann das neuronale Netzwerk die erste Vielzahl von Bounding-Boxes 340 auf Trainingsbildern mit ihren entsprechenden Konfidenzgraden 350 ausgeben. Koordinaten, die für jede Bounding-Box ermittelt werden und die Wahrscheinlichkeiten, die durch die Postklassifizierung ausgerechnet werden, können auch in der Ausgabe des Netzwerks enthalten sein. Diese Informationen können im Speichersystem 150 für einen späteren Gebrauch gespeichert werden.
  • Nach Abschluss des Trainings kann das tiefe neuronalen Netzwerk 310 eine oder mehrere Bilder 420, wie 4 ersichtlich, auswerten. Wie die Trainingsbilder 320 können Bilder 420 auch im Speichersystem 150 gespeichert werden. Doch im Gegensatz zu den Trainingsbildern können die Bilder 420 nicht mit Daten in Verbindung gebracht werden, welche die Geschäftsfassadenstandorte in den Bildern identifizieren. Bei den Bildern 420 kann es sich um Panoramabilder handeln oder um Bilder, die über Sichtfelder von mehr als 180 Grad, z. B. bis zu 360 Grad verfügen. Darüber hinaus können die Panoramabilder sphärisch oder fast sphärisch sein. Das Erfassen in einem Panorama vermeidet den Verlust des Rückrufs, der infolge eines Bildes mit einem kleineren Sichtfeld entstehen würde. Unter Verwendung des tiefen neuronalen Netzwerks 310 können die Bilder 420 ausgewertet werden, um Merkmale der Bilder zu identifizieren. Wie oben mit Bezug auf das Training beschrieben, kann die Bewertung eine Multi-Crop-Auswertung und eine Postklassifizierung beinhalten.
  • Auf Basis der Auswertung kann das tiefe neuronale Netzwerk 310 eine zweite Vielzahl von Bounding-Boxes 440 generieren, um mögliche Geschäftsfassadenstandorte im Bild, wie in 4 ersichtlich, zu identifizieren. Jede Bounding-Box 440 kann lediglich ein Bild einer einzigen Geschäftsfassade beinhalten. Eine Reihe von benachbarten Geschäftsfassaden kann daher mittels einer Vielzahl von Bounding-Boxen, die jede Geschäftsfassade in der Reihe einschließen, segmentiert werden. Darüber hinaus kann jede Bounding-Box 440 mit einem Konfidenzgrad 450 in Verbindung gebracht werden, der eine Wahrscheinlichkeit darstellt, das jede Bounding-Box ein Bild einer Geschäftsfassade enthält.
  • Wie in 5 ersichtlich, kann Bild 510 mittels eines tiefen neuronalen Netzwerks 310 bewertet werden. Infolgedessen kann das tiefe neuronale Netzwerk 310 eine Vielzahl von Bounding-Boxes einschließlich 522, 524, 526, und 528 beinhalten, wobei jede davon ein Bild einer einzelnen Geschäftsfassade enthält. Bilder 524, 526, und 528 identifizieren benachbarte Geschäftsfassaden als individuelle Geschäftsfassaden.
  • In einigen Beispielen kann eine zweite Vielzahl von Bounding-Boxes 440 durch das Entfernen von Bounding-Boxes gefiltert werden, die über Konfidenzgrade verfügen, die sich unterhalb des eingestellten Schwellenwerts befinden. Darüber hinaus oder alternativ können Bounding-Boxes aus mehreren Bildern, die mit denselben oder ähnlichen Geostandorten in Verbindung gebracht werden (oder mit anderen Worten, denselben Geschäftsstandorten) zusammengeschlossen werden. Das Zusammenschließen von Bounding-Boxes kann das Entfernen von Objekten, die falsche Positive sind, beinhalten. Ein Beispiel eines falschen Positivs kann ein Fahrzeug sein, das vorübergehend vor einer Geschäftsfassade geparkt ist. Die gefilterten Bounding-Boxes können dann mit bewerteten Bildern in Verbindung gebracht werden und im Speichersystem 150 für eine spätere Verwendung gespeichert werden.
  • Geschäftsbezogene Informationen innerhalb jeder Bounding-Box 440 können erfasst werden. Bekannte Verfahren zur Extraktion von Informationen, wie etwa optische Zeichenerfassung (OCR) können verwendet werden. Erfasste geschäftsbezogene Informationen können Namen, Wörter, Logos, Handelsware oder sonstige Gegenstände beinhalten, in einer gegebenen Bounding-Box ersichtlich sind. Die Geschäftsinformationen können dann einer Datenbank für geschäftsbezogen Informationen hinzugefügt werden. Die Datenbank kann im Speichersystem 150 für einen späteren Gebrauch gespeichert werden.
  • Ein Benutzer 220, 230, 240 kann geschäftsbezogene Informationen unter Verwendung eines Computergeräts 120, 130, 140 anfragen. Als Antwort auf eine Benutzeranfrage, können geschäftsbezogene Informationen mittels des Computergeräts 110 von der Datenbank im Speichersystem 150 abgerufen werden und an das Computergerät 120, 130, 140 gesendet werden.
  • 6 ist ein exemplarisches Flussdiagramm 600, das gemäß einigen Aspekten beschrieben ist, die auf einem tiefen neuronalen Netzwerk 310 ausgeführt werden können. Doch die beschriebenen Merkmale können von einem oder einer Vielzahl von Systemen, die über verschiedene Konfigurationen verfügen, implementiert werden. Darüber hinaus müssen die in den Verfahren miteinbezogenen Operationen nicht in der genau beschriebenen Reihenfolge durchgeführt werden. Vielmehr können verschiedene Operationen in einer anderen Reihenfolge oder gleichzeitig erledigt werden und Operationen können hinzugefügt oder weggelassen werden.
  • Bei Block 610 kann ein tiefes neuronales Netzwerk unter Verwendung eines Satzes von Trainingsbildern und Daten, die einen oder mehrere Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, trainiert werden. Bei Block 620 kann ein erstes Bild am tiefen neuronalen Netzwerk erhalten werden. Das erste Bild kann vom tiefen neuronalen Netzwerk bei Block 630 ausgewertet werden. Bei Block 640 kann ein Satz von zwei oder mehreren Bounding-Boxes generiert werden, das Geschäftsfassadenstandorte im ersten Bild identifiziert.
  • Die oben beschriebenen Merkmale können verwendet werden, um Geschäftsfassaden in einer großen Datenbank von Bildern mit einer Geschwindigkeit und Präzision zu identifizieren, die unter Verwendung sonstiger Methoden zu erreichen ist. Insbesondere versetzen die Merkmale die Bounding-Boxes in die Lage, die direkte Ausgabe der Analyse ohne Verwendung der Zwischenausgabe zu sein, wie etwa einer Heatmap oder einer Wahrscheinlichkeitskarte, die eine weitere Analyse und/oder ein weiteres Verarbeiten erfordert. Des Weiteren ermöglichen die Merkmale, dass die benachbarten Geschäftsfassaden sachgemäß segmentiert werden, anstatt als eine einzelne Geschäftsfassade identifiziert zu werden. Im Vergleich zum Verwenden einer selektiven Suche, um Bounding-Boxes um Bilder von Geschäftsfassaden herum zu generieren, fällt der Rechenaufwand für das Verwenden der oben beschriebenen Methode geringer aus, wobei die Geschwindigkeit höher ausfällt. Das Verwenden des oben beschriebenen Verfahrens kann eine höhere Leistung als das Verwenden des trainierten Heatmap-Ansatzes erbringen, der eine intensive Nachbearbeitung erfordert, um die Heatmap in sinnvolle Bounding-Boxes umzuwandeln und die viel schneller vom Rauschen der Beschriftungen beeinträchtigt ist. Das beschriebene Trainingsverfahren und das Verwenden eines tiefen neuronalen Faltennetzwerks automatisiert ein Verfahren, welches sehr viele Stunden menschlicher Arbeit in Anspruch genommen hätte, während zugleich präzise Ergebnisse erzielt werden. Nachdem die Bounding-Boxes erstellt worden sind, können die Bilder verwendet werden, um verwendbare geschäftsbezogene Auflistungen automatisch zu extrahieren, um präzisere Geostandorte von Geschäftsfassaden und viele weitere im Bild zur Verfügung stehende Informationen auf automatische Art und Weise zu extrahieren.
  • Obwohl die Erfindung hierin mit Bezug auf bestimmte Ausführungsformen beschrieben wurde, versteht sich, dass diese Ausführungsformen lediglich die Grundsätze und Anwendungen der vorliegenden Erfindung darstellen. Es versteht sich daher von selbst, dass zahlreiche Modifizierungen an den darstellenden Ausführungsformen vorgenommen werden können, und dass andere Anordnungen konzipiert werden können, ohne vom Erfindungsgedanken und Umfang der vorliegenden Erfindung, wie durch die hinzugefügten Ansprüche definiert, abzuweichen.

Claims (9)

  1. System, das Folgendes umfasst: ein tiefes neuronales Netzwerk; und eine oder mehrere Rechenvorrichtungen, die konfiguriert sind, um: das Trainieren des tiefen neuronalen Netzwerks unter Verwendung eines Satzes von Trainingsbildern und Daten, die einen oder mehrere Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, wobei das tiefe neuronalen Netzwerk in jedem Trainingsbild eine erste Vielzahl von Bounding-Boxes ausgibt; das am tiefen neuronalen Netzwerk durchgeführte Erhalten eines ersten Bildes; das unter Verwendung des tiefen neuronalen Netzwerks durchgeführte Bewerten des ersten Bildes; und das unter Verwendung des tiefen neuronalen Netzwerks durchgeführte Generieren einer Vielzahl von Bounding-Boxes, welche Geschäftsfassadenstandorte im ersten Bild identifizieren.
  2. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um das tiefe neuronale Netzwerk mittels der Folgenden zu trainieren: das Anwenden eines groben Schiebefensters an einem Abschnitt eines gegebenen Trainingsbildes; und das Entfernen einer oder mehrerer Bounding-Boxes auf Basis eines Standorts des Abschnitts des gegebenen Trainingsbildes.
  3. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um die zweite Vielzahl von Bounding-Boxes durch das Folgende zu generieren: das Anwenden eines groben Schiebefensters auf einen Abschnitt des ersten Bildes; und das Entfernen einer oder mehrerer Bounding-Boxes auf Basis eines Standorts des Abschnitts des gegebenen Trainingsbildes.
  4. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um das tiefe neuronale Netzwerk mittels der Folgenden zu trainieren: das Ermitteln eines Konfidenzgrades für jede Bounding-Box, welche eine Wahrscheinlichkeit darstellt, dass die Bounding-Box ein Bild einer Geschäftsfassade umfasst; und das Entfernen der Bounding-Boxes, die Bounding-Boxes mit einem Konfidenzgrad entsprechen der geringer als ein eingestellter Schwellenwert ausfällt.
  5. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um die zweite Vielzahl von Bounding-Boxes durch das Folgende zu generieren: das Ermitteln von Konfidenzgraden für jede Bounding-Box, welche eine Wahrscheinlichkeit darstellt, dass die Bounding-Box ein Bild einer Geschäftsfassade umfasst; und das Entfernen der Bounding-Box-Standorte, die Bounding-Boxes mit einem Konfidenzgrad entsprechen der geringer als ein eingestellter Schwellenwert ausfällt.
  6. System nach Anspruch 1, worin ein oder mehrere Rechenvorrichtungen ferner so ausgestattet sind, um: das tiefe neuronale Netzwerk durch das Verwenden der Postklassifizierung zu trainieren; und die zweite Vielzahl von Bounding-Boxes durch das Verwenden der Postklassifizierung zu generieren.
  7. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um die zweite Vielzahl von Bounding-Boxes durch das Folgende zu generieren: das Berechnen einer Wahrscheinlichkeit einer gegebenen Bounding-Box, die über eine Geschäftsfassade verfügt; das Einstufen der zweiten Vielzahl von Bounding-Boxes auf Basis der berechneten Wahrscheinlichkeit; und das Entfernen der einen oder der mehreren Bounding-Boxes auf Basis der Einstufung.
  8. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um die zweite Vielzahl von Bounding-Boxes durch das Entfernen von Objekten in der zweiten Vielzahl von Bounding-Boxes, welche die Sicht auf die identifizierten Geschäftsfassadenstandorte blockiert, zu generieren.
  9. Nicht-flüchtiges physisch greifbares rechnerlesbares Speichermedium auf dem von einem Computer lesbare Anweisungen eines Programms gespeichert werden, wobei die Anweisungen, wenn sie von einem oder mehreren Computergeräten ausgeführt werden, das eine oder die mehreren Computergeräte dazu veranlassen, ein Verfahren auszuführen, wobei das Verfahren das Folgende umfasst: das Trainieren eines tiefen neuronalen Netzwerks unter Verwendung eines Satzes von Trainingsbildern und Daten, die einen oder mehrere Geschäftsfassadenstandorte in den Trainingsbildern identifizieren, wobei das tiefe neuronalen Netzwerk in jedem Trainingsbild eine erste Vielzahl von Bounding-Boxes ausgibt; das am tiefen neuronalen Netzwerk durchgeführte Erhalten eines ersten Bildes; das unter Verwendung des tiefen neuronalen Netzwerks durchgeführte Bewerten des ersten Bildes; und das unter Verwendung des tiefen neuronalen Netzwerks durchgeführte Generieren einer Vielzahl von Bounding-Boxes, welche Geschäftsfassadenstandorte im ersten Bild identifizieren.
DE202016007816.0U 2015-08-07 2016-08-04 Das Entdecken von Unternehmen aus Bildern Active DE202016007816U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/821,128 2015-08-07
US14/821,128 US9594984B2 (en) 2015-08-07 2015-08-07 Business discovery from imagery

Publications (1)

Publication Number Publication Date
DE202016007816U1 true DE202016007816U1 (de) 2017-01-25

Family

ID=56958988

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202016007816.0U Active DE202016007816U1 (de) 2015-08-07 2016-08-04 Das Entdecken von Unternehmen aus Bildern
DE112016001830.4T Pending DE112016001830T5 (de) 2015-08-07 2016-08-04 Das Entdecken von Unternehmen aus Bildern

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112016001830.4T Pending DE112016001830T5 (de) 2015-08-07 2016-08-04 Das Entdecken von Unternehmen aus Bildern

Country Status (8)

Country Link
US (1) US9594984B2 (de)
EP (1) EP3332355A1 (de)
JP (1) JP6397144B2 (de)
KR (1) KR101856120B1 (de)
CN (1) CN107690657B (de)
DE (2) DE202016007816U1 (de)
GB (1) GB2554238B (de)
WO (1) WO2017027321A1 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190258888A1 (en) * 2015-03-24 2019-08-22 Hrl Laboratories, Llc Hardware and system of bounding box generation for image processing pipeline
US11188823B2 (en) * 2016-05-31 2021-11-30 Microsoft Technology Licensing, Llc Training a neural network using another neural network
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US20180300341A1 (en) * 2017-04-18 2018-10-18 International Business Machines Corporation Systems and methods for identification of establishments captured in street-level images
US10417276B2 (en) * 2017-05-15 2019-09-17 Adobe, Inc. Thumbnail generation from panoramic images
CN111295669A (zh) 2017-06-16 2020-06-16 马克波尔公司 图像处理系统
EP3459238B1 (de) 2017-07-28 2021-06-09 Google LLC Bedarfssensitives bild- und ortserfassungssystem und -verfahren
JP7098897B2 (ja) * 2017-09-14 2022-07-12 大日本印刷株式会社 画像処理装置、プログラム及び画像データ
US20210124995A1 (en) * 2018-01-31 2021-04-29 Hewlett-Packard Development Company, L.P. Selecting training symbols for symbol recognition
CN111801703A (zh) * 2018-04-17 2020-10-20 赫尔实验室有限公司 用于图像处理管线的边界框生成的硬件和系统
US11592818B2 (en) 2018-06-20 2023-02-28 Zoox, Inc. Restricted multi-scale inference for machine learning
US10936922B2 (en) * 2018-06-20 2021-03-02 Zoox, Inc. Machine learning techniques
US10817740B2 (en) 2018-06-20 2020-10-27 Zoox, Inc. Instance segmentation inferred from machine learning model output
CN109214280B (zh) * 2018-07-27 2021-10-01 北京三快在线科技有限公司 基于街景的店铺识别方法、装置、电子设备及存储介质
US20200065706A1 (en) * 2018-08-24 2020-02-27 Htc Corporation Method for verifying training data, training system, and computer program product
KR102655999B1 (ko) * 2018-10-25 2024-04-11 현대모비스 주식회사 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법
JP7188067B2 (ja) * 2018-12-27 2022-12-13 オムロン株式会社 人検出装置および人検出方法
US20210020287A1 (en) * 2019-07-17 2021-01-21 Walmart Apollo, Llc System and method for fulfilling prescriptions
WO2021025677A1 (en) * 2019-08-05 2021-02-11 Google Llc Systems and methods for object detection using image tiling
KR20210061839A (ko) 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
US11145065B2 (en) * 2020-01-22 2021-10-12 Gracenote, Inc. Selection of video frames using a machine learning predictor
US11080549B1 (en) 2020-01-22 2021-08-03 Gracenote, Inc. Automated cropping of images using a machine learning predictor
US11941816B2 (en) 2020-01-22 2024-03-26 Gracenote, Inc. Automated cropping of images using a machine learning predictor
KR102285269B1 (ko) * 2020-05-18 2021-08-04 주식회사 선도소프트 빅데이터 기반 Geo AI를 활용한 이미지 분석 장치 및 방법
TWI786463B (zh) * 2020-11-10 2022-12-11 中華電信股份有限公司 適用於全景影像的物件偵測裝置和物件偵測方法
US11798210B2 (en) * 2020-12-09 2023-10-24 Salesforce, Inc. Neural network based detection of image space suitable for overlaying media content
US11657511B2 (en) 2021-01-29 2023-05-23 Salesforce, Inc. Heuristics-based detection of image space suitable for overlaying media content
US11915429B2 (en) 2021-08-31 2024-02-27 Gracenote, Inc. Methods and systems for automatically generating backdrop imagery for a graphical user interface

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200187871Y1 (ko) 2000-01-27 2000-07-15 정대성 부가정보를 가지는 위치정보 안내지 출력장치
DE202011110874U1 (de) * 2010-07-12 2017-01-18 Google Inc. System zur Bestimmung von Gebäudenummern
JP5950296B2 (ja) 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
CN103345656B (zh) * 2013-07-17 2016-01-20 中国科学院自动化研究所 一种基于多任务深度神经网络的数据识别方法及装置
CN103530689B (zh) * 2013-10-31 2016-01-20 中国科学院自动化研究所 一种基于深度学习的聚类方法
US8965112B1 (en) * 2013-12-09 2015-02-24 Google Inc. Sequence transcription with deep neural networks
CN103605972B (zh) * 2013-12-10 2017-02-15 康江科技(北京)有限责任公司 一种基于分块深度神经网络的非限制环境人脸验证方法
CN103778414A (zh) * 2014-01-17 2014-05-07 杭州电子科技大学 基于深度神经网络的实时人脸识别方法
CN104299006B (zh) * 2014-07-23 2018-11-09 中国传媒大学 一种基于深度神经网络的车牌识别方法
EP3029606A3 (de) * 2014-11-14 2016-09-14 Thomson Licensing Verfahren und vorrichtung zur bildklassifizierung mit gemeinsamer merkmalsanpassung und klassifiziererlernen
US20160259980A1 (en) * 2015-03-03 2016-09-08 Umm Al-Qura University Systems and methodologies for performing intelligent perception based real-time counting

Also Published As

Publication number Publication date
KR20170122836A (ko) 2017-11-06
US9594984B2 (en) 2017-03-14
US20170039457A1 (en) 2017-02-09
GB2554238B (en) 2019-01-16
DE112016001830T5 (de) 2018-01-04
WO2017027321A1 (en) 2017-02-16
CN107690657B (zh) 2019-10-22
GB2554238A (en) 2018-03-28
CN107690657A (zh) 2018-02-13
EP3332355A1 (de) 2018-06-13
KR101856120B1 (ko) 2018-05-10
JP6397144B2 (ja) 2018-09-26
GB201717115D0 (en) 2017-11-29
JP2018524678A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
DE202016007816U1 (de) Das Entdecken von Unternehmen aus Bildern
DE102017011260A1 (de) Markieren großer Bilder unter Nutzung einer Bild-mit-Thema-Einbettung
Li et al. Visual saliency based on scale-space analysis in the frequency domain
DE102019000675A1 (de) Nutzen eines modells auf der basis eines tiefen neuronalen netzwerks zum identifizieren von visuell ähnlichen digitalen bildern auf der basis von nutzer-ausgewählten visuellen eigenschaften
DE202015009255U1 (de) Automatische Bildorganisation
DE112011101927T5 (de) Semantisches Parsen von Objekten in Videos
DE202014010843U1 (de) Ausrichten von bodenbasierten Bildern mit Luftbildern
DE102016014798A1 (de) Genaues Vorhersagen einer Etikettrelevanz bei einer Bildabfrage
DE112019005489T5 (de) Bestimmung visueller attribute zur inhaltsauswahl
DE202015009137U1 (de) Verwenden von Bildmerkmalen zur Extraktion von Ansichtsfenstern aus Bildern
DE112016005555T5 (de) CAPTCHA-Aufgaben auf Bildbasis
DE202015009182U1 (de) Ausrichten von Panoramaaufnahmen und Luftaufnahmen
CN106126585B (zh) 基于质量分级与感知哈希特征组合的无人机图像检索方法
DE202016007838U1 (de) Bereichsmodellierung mittels der geographischen Photobeschriftungsanalyse
DE102017009505A1 (de) Erzeugen einer kompakten Videomerkmaldarstellung in einer digitalen Medienumgebung
DE202016006008U1 (de) Automatische Erkennung von Panoramagesten
DE202014010922U1 (de) Erzeugung von Tiefenkarten
DE102013210375A1 (de) Auffinden von text in natürlichen szenen
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
DE102019007796A1 (de) Einsetzen eines der Detektion kritischer Kanten dienenden neuronalen Netzwerkes und eines geometrischen Modells zum Bestimmen von Kameraparametern aus einem einzigen Digitalbild
DE112016006922T5 (de) Erkennung einer Aktivität in einer Videobildfolge anhand von Tiefeninformationen
DE202011110874U1 (de) System zur Bestimmung von Gebäudenummern
DE112009005002T5 (de) Techniken zum Erkennen von Videokopien
DE112016002020T5 (de) Verankerungseinrichtungen mit geolokalisierter bildsprache

Legal Events

Date Code Title Description
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years