DE202010018498U1 - Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz - Google Patents

Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz Download PDF

Info

Publication number
DE202010018498U1
DE202010018498U1 DE202010018498.3U DE202010018498U DE202010018498U1 DE 202010018498 U1 DE202010018498 U1 DE 202010018498U1 DE 202010018498 U DE202010018498 U DE 202010018498U DE 202010018498 U1 DE202010018498 U1 DE 202010018498U1
Authority
DE
Germany
Prior art keywords
image
cell
interest
index data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202010018498.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202010018498U1 publication Critical patent/DE202010018498U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Ein Bildverarbeitungsapparat, umfassend: Ein Front-End-Modul, das so konfiguriert ist, dass es eine Bildanfrage von einem Benutzergerät empfängt, wobei die Bildanfrage ein Bild von Interesse und Standortmetadaten für das Bild von Interesse umfasst und das Front-End-Modul ferner so konfiguriert ist, dass es die Standortmetadaten analysiert, um eine oder mehrere Zellen auszuwählen, die im Vergleich zu dem Bild von Interesse ausgewertet werden, wobei jede Zelle ein oder mehr mit ihr verbundene geolokalisierte Bilder und Indexdaten hat; und Ein Zellenübereinstimmungsmodul, das so konfiguriert ist, dass es das Bild von Interesse mit den Indexdaten der ausgewählten Zellen vergleicht und jegliche Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten ermittelt.

Description

  • VERWEIS
  • Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind dabei, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Aspekte der Erfindung beziehen sich allgemein auf digitales Bildmaterial. Insbesondere werden Aspekte auf den Abgleich eines empfangenen Bildes mit Geolokalisierungsinformationen mit ausgewählten Referenzbildern gerichtet.
  • Beschreibung des Stands der Technik
  • Mobile Benutzergeräte wie Mobiltelefone und Personal Digital Assistants („PDAs”) enthalten neben anderen Merkmalen häufig digitale Kameras. Solche Geräte verbinden den Nutzen des drahtlosen Zuganges mit elektronischer Fotografie. Ein Benutzer kann Fotos von Freunden und Familie, Sonderzielen usw. aufnehmen und diese Bilder sofort teilen.
  • Bei diesen Bildern kann Bilderkennung angewandt werden. Zum Beispiel können Anwendungen wie mobile visuelle Suchprogramme diese Bilder in dem Versuch analysieren, Eigenschaften wie Sonderziele und Ähnliches zu erkennen. Jedoch kann die mobile visuelle Suche rechnerisch sehr intensiv und auch zeitraubend sein und je nach dem Gerät, welches das Bild erfasst, kann die Suche sich auf die mit dem Bild verbundenen unvollständigen oder ungenauen Standortinformationen verlassen. Aspekte der Erfindung gehen diese und andere Probleme an.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In einer Ausführungsform wird ein Bildverarbeitungsverfahren bereitgestellt. Dieses Verfahren umfasst das Empfangen einer Bildanfrage von einem Benutzergerät, wobei die Bildanfrage ein Bild von Interesse sowie Standortsmetadaten für das Bild von Interesse umfasst; die Analyse der Standortmetadaten, um eine oder mehrere Zellen für die Auswertung im Vergleich zum Bild von Interesse auszuwählen, wobei jede Zelle über ein oder mehrere geolokalisierte Bilder und damit verbundene Indexdaten verfügt; für jede ausgewählte Zelle, den Vergleich des Bildes von Interesse mit den Indexdaten dieser Zelle; und Ermittlung jeglicher Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten; und Bereitstellung der Übereinstimmungen.
  • In einer Alternative werden die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmung bereitgestellt, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt. Hier hängt ein Wert der Zuverlässigkeitsanzeige für die Übereinstimmung wünschenswerterweise von der Geolokalisierungsüberprüfung zwischen den Standortmetadaten und den Standortinformationen für die geolokalisierten Bilder der ausgewählten Zellen ab.
  • In einer anderen Alternative werden die aktualisierten Standortmetadaten für das Bild von Interesse dem Benutzergerät zusammen mit den Übereinstimmungen bereitgestellt. In einer weiteren Alternative werden die Indexdaten in einem Indexspeicherserver gespeichert und auf die Indexdaten für jede ausgewählte Zelle kann mit einem Schlüssel zugegriffen werden, der die eindeutige ID dieser Zelle darstellt.
  • In noch einer weiteren Alternative entsprechen die Indexdaten Eigenschaften der geolokalisierten Bilder. In einem Beispiel werden die Eigenschaften aus dem aus Ecken, Rändern oder Linien, Helligkeitsinformationen und Histogramminformationen bestehenden Satz ausgewählt. In einem anderen Beispiel werden die geolokalisierten Bilder in einer Bilddatenbank gespeichert und die Indexdaten werden in einer Zellendatenbank gespeichert. Und in einem weiteren Beispiel werden die Indexdaten in einem k-dimensionalen Baumformat gespeichert. Und in einem Beispiel hat jede Zelle eine eindeutige ID, die von den Geolokalisierungskoordinaten dieser Zelle abgeleitet wird.
  • In einer anderen Ausführungsform wird ein Bildverarbeitungsapparat bereitgestellt. Der Apparat umfasst ein Frontmodul und ein Zellenübereinstimmungsmodul. Das Frontmodul ist so konfiguriert, dass es eine Bildanfrage von einem Benutzergerät empfängt. Die Bildanfrage schließt ein Bild von Interesse und Standortmetadaten für das Bild von Interesse ein. Das Frontmodul ist ferner so konfiguriert, dass es die Standortmetadaten analysiert, um eine oder mehrere Zellen für die Auswertung im Vergleich zu dem Bild von Interesse auszuwählen. Mit jeder Zelle sind ein oder mehrere geolokalisierte Bilder und Indexdaten verbunden. Das Zellenübereinstimmungsmodul ist so konfiguriert, dass es das Bild von Interesse mit den Indexdaten der ausgewählten Zellen vergleicht und jegliche Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten ermittelt.
  • In einem Beispiel umfasst das Zellenübereinstimmungsmodul eine Vielzahl von Zellenübereinstimmungsservern und es werden bestimmte der Zellenübereinstimmungsserver zugewiesen, um den Vergleich für entsprechende der ausgewählten Zellen durchzuführen. Hier können die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmungen bereitgestellt werden, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt. Alternativ kann der Apparat ferner ein indexiertes Modul umfassen, das so konfiguriert ist, dass es die Indexdaten einer jeden Zelle speichert. Hier hat jede Zelle wünschenswerterweise eine mit ihr verbundene eindeutige ID. In diesem Fall greift jeder vorgegebene Zellenübereinstimmungsserver auf die Indexdaten der entsprechenden Zelle aus dem indexierten Modul zu, wobei er einen Schlüssel verwendet, der die eindeutige ID dieser Zelle darstellt. Vorzugsweise wird die eindeutige ID für jede Zelle von den Geolokalisierungskoordinaten dieser Zelle abgeleitet.
  • In einer weiteren Alternative entsprechen die Indexdaten Eigenschaften der geolokalisierten Bilder. Und in diesem Fall werden die Eigenschaften wünschenswerterweise aus dem aus Ecken, Rändern oder Linien, Helligkeitsinformationen und Histogramminformationen bestehenden Satz ausgewählt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein Bild von Interesse.
  • 2A–B veranschaulichen ein mobiles Benutzergerät gemäß Aspekten der Erfindung.
  • 3A–B veranschaulichen Kamerawinkelparameter.
  • 4 veranschaulicht einen Bilderfassungsprozess.
  • 5 veranschaulicht ein Bilderfassungsszenario.
  • 6 veranschaulicht ein Computersystem zur Verwendung mit Aspekten der Erfindung.
  • 7 veranschaulicht Aspekte des Computersystems von 6.
  • 8A–C veranschaulichen Zellenanordnungen gemäß Aspekten der Erfindung.
  • 9 veranschaulicht ein Bildübereinstimmungssystem gemäß Aspekten der Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Aspekte, Merkmale und Vorteile der Erfindung werden ersichtlich, wenn sie unter Bezugnahme auf die folgende Beschreibung bevorzugter Ausführungsformen und beigefügten Figuren betrachtet wird. Dieselben Referenznummern in unterschiedlichen Zeichnungen können dieselben oder ähnliche Elemente identifizieren. Ferner ist die folgende Beschreibung nicht einschränkend; der Umfang der Erfindung wird durch die beigefügten Ansprüche und Äquivalente definiert.
  • Wie vorstehend angemerkt, können Benutzer von mobilen Geräten Fotos von Personen, Orten oder Sonderzielen aufnehmen. 1 ist ein beispielhaftes Bild 100, das von einem mobilen Benutzergerät erfasst werden kann. Ein Beispiel für ein Bild auf Straßenhöhe ist ein Bild von geografischen Objekten, Personen und/oder Objekten, das von einer Kamera in einem Winkel in der Regel senkrecht zum Boden oder in einer Position, in der sich die Kamera am oder in der Nähe des Bodens befindet, aufgenommen wurde. Sowohl die geographischen Objekte im Bild als auch die Kamera haben einen geographischen Standortbezug zueinander. Daher kann, wie in 1 gezeigt, das Bild auf Straßenhöhe 100 verschiedene geografische Objekte wie Gebäude 102 und 104, Gehweg 106, Straße 108, Fahrzeug 110 und Personen 112 darstellen. Es versteht sich, dass obwohl das Bild auf Straßenhöhe 100 zur besseren Verdeutlichung nur wenige Objekte zeigt, ein typisches Bild auf Straßenhöhe so viele Objekte wie möglich enthält, die mit geografischen Standorten (Straßenbeleuchtung, Schilder, Erhebungen, Bäume, Skulpturen, Wasserflächen, Schaufenster usw.) verbunden werden können, in so vielen Details, wie von einem Bilderfassungsgerät wie einer digitalen Kamera erfasst werden können.
  • Zusätzlich zu der Zuordnung zu geographischen Standorten sind Bilder wie das Bild auf Straßenhöhe 100 üblicherweise mit Informationen verbunden, die die Orientierung des Bildes anzeigen. Wenn die Straßenansicht beispielsweise eine übliche Fotografie enthält, kann die Ausrichtung einfach der Kamerawinkel sein, zum Beispiel als Winkel von 30° Ost vom geografischen Norden dargestellt werden kann und 2° vom Bodenniveau nach oben gerichtet ist. Sind Bilder auf Straßenhöhe Panoramabilder, wie auf den in den geographischen Standort zentrierten 360°-Panoramen, die mit dem Bild verbunden sind, kann die Ausrichtung darauf hindeuten, dass der Teil des Bildes, der einem nördlichen Blick von der Kameraposition aus entspricht mit einen Winkel direkt parallel zum Boden zeigt.
  • 2A–B veranschaulichen ein mobiles Benutzergerät 200, das so konfiguriert ist, dass es Bilder erfasst. Wie in 2A gezeigt, kann das mobile Benutzergerät 200 ein PDA oder ein Mobiltelefon mit einer Touchscreen-Anzeige 202, einer universellen Taste 204, einem Lautsprecher 206 und einem Mikrofon 208 auf der Vorderseite sein. Die linke Seite schließt Volumentasten 210 ein. Die obere Seite schließt eine Antenne 212 und einen GPS-Empfänger 214 ein. Wie in 2B gezeigt, schließt die Rückseite eine Kamera 216 ein. Die Kamera kann in eine bestimmte Richtung (im Weiteren „Kamerawinkel) ausgerichtet werden. Und wie auf dem Bedienfeld von 2A gezeigt, kann eine Zoomtaste oder ein anderer Betätiger 218 verwendet werden, um ein Bild auf der Anzeige zu vergrößern oder zu verkleinern.
  • Bei der Kamera kann es sich um jegliches Gerät handeln, das in der Lage ist, Bilder von Objekten zu erfassen, wie digitale Fotokameras, digitale Videokameras und Bildsensoren (zum Beispiel CCD, CMOS oder sonstige). Bilder können in herkömmlichen Formaten, wie JPEG oder MPEG, gespeichert werden. Die Bilder können lokal in einem Speicher des Gerätes 200, wie in einem RAM oder auf einer Flash Card, gespeichert werden. Alternativ können die Bilder erfasst und in eine entfernte Datenbank hochgeladen werden.
  • Der Kamerawinkel kann dreidimensional ausgedrückt werden, wie durch die Achsen X, Y und Z in 2B und schematisch in 3A und 3B gezeigt. Aus Gründen der Übersichtlichkeit und nicht zur Beschränkung wird angenommen, dass der Kamerawinkel im Verhältnis zur Ausrichtung des Gerätes festgelegt ist. In dieser Hinsicht veranschaulicht 3A eine mögliche Neigung des Gerätes (wie zu sehen ist, wenn man auf die linke Seite des Gerätes blickt) im Verhältnis zum Boden, z. B. im Verhältnis zu der zur Richtung der Schwerkraft senkrechten Fläche.
  • 3B veranschaulicht einen potenziellen Breiten-/Längengradwinkel des Gerätes (zu sehen, wenn man nach unten zur Oberseite des Gerätes blickt), z. B. die Kamerarichtung, in die die Kamera im Verhältnis zur Breite und Länge zeigt. Zusammen definieren die Neigung und der Breiten-/Längengradwinkel eine Kamerahaltung oder einen Standort und eine Ausrichtung. Das Rollen (Drehung um die Y-Achse von 2B), das Gieren/Azimut und/oder die Höhe können ebenfalls erfasst werden. Diese und andere bildbezogene Informationen können als nummerische Werte von einem Beschleunigungsmesser (nicht gezeigt) oder anderen Komponenten im Gerät 200 ausgegeben, von dem Prozessor des Gerätes verwendet und in dem Speicher des Gerätes gespeichert werden.
  • In einem Aspekt kann ein Benutzer das Clientgerät 200 mit der Kamera 216 so ausrichten, dass sie auf ein Objekt von Interesse blickt. In dieser Hinsicht kann der Benutzer, wie in 4 gezeigt, vor einem Objekt von Interesse stehen, wie vor einem Gebäude oder einem Denkmal und die Kamera 216 in eine Richtung 220 ausrichten, die auf einen Punkt 222 im Sonderziel zeigt.
  • Die Kamera 216 des Clientgerätes 200 kann verwendet werden, um dem Benutzer bei der Ausrichtung des Gerätes in die gewünschte Position auf das Objekt von Interesse, hier Gebäude 102, zu helfen. In dieser Hinsicht kann die Anzeige 202 auch ein Ziel, einen Scheibenmittelpunkt oder einen anderen Anzeiger anzeigen, um die genaue oder ungefähre Position des Objektes anzuzeigen, auf das das Gerät 200 gerichtet ist.
  • Sobald ein Bild erfasst wurde, kann der Benutzer wählen, das Bild mit anderen zu teilen. Oder alternativ kann der Benutzer nach mehr Informationen über ein Objekt im Bild suchen. Eine visuelle Suchanwendung kann eingesetzt werden, um Informationen über das Bild zu ermitteln. Dann können dem Benutzer die relevanten Informationen über das Bild bereitgestellt werden. In einem Fall, in dem das Bild an andere geschickt oder in einer externen Datenbank gespeichert wird, können die relevanten Informationen über das Bild auch mit dem Bild gespeichert oder indexiert werden. Jedoch geht es primär um die korrekte Analyse und Klassifizierung des Bildes.
  • Ein Aspekt stellt ein System und Verfahren bereit, um ein Bild mit Standortinformationen mit einer Datenbank von zuvor geolokalisierten Referenzbildern abzugleichen. Wie nachstehend detailliert erklärt wird, kann die Datenbank mit den Referenzbildern in geographische Zellen aufgespalten werden. Das empfangene Bild wird mit einer Untergruppe jener Zellen abgeglichen.
  • Wenn ein Benutzer unter Verwendung seines mobilen Gerätes ein Bild eines Objektes von Interesse wie von einem Gebäude (z. B. einem Schaufenster) aufnimmt, ist es wünschenswert, Informationen über dieses Gebäude schnell zu ermitteln. In dem Beispiel von 5 macht die Kamera des mobilen Benutzergerätes 200 ein Bild des Gebäudes 102.
  • Die GPS-Einheit des Gerätes 200 kann einen ungefähren Standort angeben, von dem aus das Bild aufgenommen wurde. Jedoch ist der GPS-Sensor des Gerätes möglicherweise nicht genau genug, um auf dem Niveau einzelner Gebäude eindeutig zuzuordnen. Außerdem gibt das Gerät vielleicht nicht immer eine Ausrichtung/Richtung an, die notwendig sein kann, um zu bestimmen, in welche Richtung die Kamera des Gerätes zeigt, bzw. zeichnet es diese eventuell nicht auf. Und selbst wenn die Ausrichtung/Richtung bereitgestellt wird, ist sie möglicherweise nicht sehr genau. So kann im Beispiel von 5 das falsche Gebäude ermittelt werden (z. B. Gebäude 104) oder es kann ein Hintergrundgebäude anstelle einer Person oder eines Objektes im Vordergrund identifiziert werden oder umgekehrt. Um solche Probleme zu überwinden, gleicht ein Aspekt der Erfindung die Fotografie mit einer Datenbank mit Referenzbildern ab. Ein System, das Bild- und/oder Kartendatenbanken enthält, kann eingesetzt werden. Wie in 6 gezeigt, stellt System 300 ein schematisches Diagramm dar, das verschiedene Computergeräte abbildet, die alleine oder in einer vernetzten Konfiguration gemäß Aspekten der Erfindung benutzt werden können. Diese Figur veranschaulicht zum Beispiel ein Computernetzwerk mit einer Vielzahl von Computern 302, 304 und 306 sowie mit anderen Arten von Geräten, z. B. mobile Benutzergeräte wie einen Laptop/Palmtop 308, ein Mobiltelefon 310 und ein PDA 312. Die mobilen Benutzergeräte können die vorstehend im Hinblick auf das mobile Benutzergerät 200 erörterten Komponenten einschließen. Verschiedene Geräte können über einen lokalen Bus oder eine direkte Verbindung 314 miteinander verbunden sein und/oder über ein Kommunikationsnetzwerk 316 wie ein LAN, WAN, das Internet usw. gekoppelt sein, das fest verdrahtet oder drahtlos sein kann.
  • Jedes Computergerät kann zum Beispiel Benutzereingabegeräte wie eine Tastatur 318 und eine Maus 320 und/oder verschiedene andere Arten von Eingabegeräten wie Eingabestifte, Joysticks, Tasten, Touchscreens usw. sowie ein Anzeigegerät 322 beinhalten, das zum Beispiel eine CRT, LCD, einen Plasmabildschirm-Monitor, ein TV-Gerät, einen Projektor usw. beinhalten könnte. Jeder Computer 302, 304, 306 und 308 kann ein PC, ein Server usw. sein. Nur als Beispiel kann der Computer 306 ein PC sein, während Computer 302 und 304 Server sein können. Datenbanken, wie die Bilddatenbank 324 und Kartendatenbank 326 sind für einen oder mehrere der Server oder andere Geräte zugänglich.
  • Wie in Diagramm 400 von 7 gezeigt, können die Geräte einen Prozessor 402, einen Speicher 404 und andere Komponenten enthalten, die typischerweise Teil eines Computers sind. Der Speicher 404 enthält Informationen, die durch den Prozessor 402 zugänglich sind, einschließlich Anweisungen 406, die vom Prozessor 402 ausgeführt werden können. Er beinhaltet zudem Daten 408, die der Prozessor abrufen, bearbeiten oder speichern kann. Der Speicher kann jeder beliebige Speichertyp sein, der vom Prozessor zugängliche Informationen speichern kann, wie Festplattenlaufwerke, Speicherkarten, ROM, RAM, DVD, CD-ROM, Bluray Disc, beschreibfähige und Nur-Lese-Speicher. Der Prozessor 402 kann ein beliebiger bekannter Prozessor sein, wie beispielsweise Prozessoren von Intel oder Advanced Micro Devices. Alternativ dazu kann der Prozessor ein speziell dafür vorgesehener Controller, wie etwa eine ASIC sein.
  • Die Anweisungen 406 können jeder beliebige Satz Anweisungen zur direkten (wie Maschinencode) oder indirekten (wie Scripts) Ausführung durch den Prozessor sein. In dieser Hinsicht können die Begriffe „Anweisungen”, „Schritte” und „Programme” hierin austauschbar verwendet werden. Die Anweisungen können im Objektcodeformat zur direkten Verarbeitung durch den Prozessor oder in jeder anderen Computersprache einschließlich Scripts und Sammlungen von unabhängigen Sourcecodemodulen gespeichert werden, die auf Anfrage interpretiert oder im Voraus erstellt werden können. Zum Beispiel können die Anweisungen 406 Bildverarbeitungsprogramme für die Analyse empfangener Bilder enthalten. Funktionen, Verfahren und Routinen der Anweisungen werden unten ausführlicher erklärt.
  • Die Daten 408 können vom Prozessor 402 gemäß den Anweisungen 406 abgerufen, gespeichert oder bearbeitet werden. Zwar sind die Systeme und Verfahren gemäß Aspekten der Erfindung nicht durch eine bestimmte Datenstruktur eingeschränkt, aber die Daten können beispielsweise in Computerregistern, in einer relationalen Datenbank als Tabelle mit einer Vielzahl von verschiedenen Feldern und Aufzeichnungen, XML-Dokumenten oder Flachdateien gespeichert werden. Die Daten können auch in jedem computerlesbaren Format formatiert werden. Als weiteres, nicht einschränkendes Beispiel können Bilddaten als aus Pixeln bestehende Bitmaps in komprimierten oder unkomprimierten, verlustfreien oder verlustbehafteten Formaten (z. B. JPEG), in vektorbasierten Formaten (z. B. SVG) oder Computeranweisungen zur Zeichnung von Grafiken gespeichert werden. Die Daten können alle Informationen umfassen, die zum Erkennen der relevanten Informationen dienen, wie Zahlen, beschreibende Texte, proprietäre Codes, Zeiger, Verweise zu in anderen Speichern abgelegten Daten (einschließlich anderer Netzstandorte) oder Informationen, die von einer Funktion zur Berechnung der relevanten Daten genutzt werden.
  • Obwohl in 7 Prozessor und Speicher funktional als in dem gleichen Block veranschaulicht werden, wird der Fachmann verstehen, dass Prozessor und Speicher in der Praxis mehrere Prozessoren und Speicher umfassen können, die in dem gleichen physischen Gehäuse untergebracht werden können oder nicht. Beispielsweise können einige der Anweisungen und Daten auf entfernbare CD-ROM oder DVD-ROM und andere in einem Nur-Lese-Computer-Chip gespeichert werden. Einige oder alle Anweisungen und Daten können an einem Standort gespeichert werden, der physisch vom Prozessor entfernt ist, zu dem der Prozessor aber trotzdem Zugang hat. Desgleichen kann der Prozessor eine Reihe von Prozessoren umfassen, die parallel betrieben werden können oder nicht.
  • In einem Aspekt ist Computer 302 ein Server, der mit einem oder mehreren mobilen Benutzergeräten 308, 310 oder 312 und einer Datenbank wie Bilddatenbank 324 oder Kartendatenbank 326 verbunden ist. Computer 302 kann beispielsweise ein Webserver oder ein Anwendungsserver sein. Jedes mobile Gerät kann ähnlich wie Speicher 302 wie vorstehend beschrieben mit einem Prozessor, einem Speicher und Anweisungen konfiguriert sein. Jedes mobile Benutzergerät kann auch einen drahtlosen Sendeempfänger (z. B. einen Mobiltelefonempfänger, Bluetooth, Modem vom Typ 802.11 oder WiFi) einschließen. Wie in 7 gezeigt, speichert/speichern die Datenbank(en) wünschenswerterweise Bilder 416, einschließlich beispielsweise den Standort und die Ausrichtung (falls bekannt) jeden Bildes und/oder Karten oder Zellen 418. Die Karten/Zellen können jeweils einen Index und eine eindeutige ID haben.
  • Zusätzlich zu einem Prozessor, einem Speicher, einer Anzeige und dergleichen verfügen die mobilen Benutzergeräte 308, 310 und 312 wünschenswerterweise auch über die Kamera 200, den GPS-Empfänger 214, einen Beschleunigungsmesser 410 und einen Sendeempfänger 412 für die Kommunikation mit einem Netz oder einzelnen entfernten Geräten. Ein Browser 414 oder eine andere Benutzeroberfläche kann in Verbindung mit der Anzeige und Benutzereingaben funktionieren.
  • Gemäß einem Aspekt der Erfindung wird das Bild mit einer Datenbank mit Bildern aus der ungefähren geographischen Region, in der das Foto gemacht wurde, abgeglichen, um festzustellen, ob ein Objekt von Interesse ein Platz wie ein Gebäude ist. Um den Abgleich lenkbar zu halten, können alle Standortinformationen (z. B. GPS-Koordinaten) verwendet werden, die von dem mobilen Benutzergerät empfangen wurden und die mit dem Bild verbunden sind. Daher können die GPS-Koordinaten des Gerätes als eine ungefähre Anleitung verwendet werden, um einen geeigneten Satz Bilder aus der Datenbank auszuwählen. Dann können diese Bilder mit dem Bild von dem Gerät des Benutzers abgeglichen werden.
  • Sobald das empfangene Bild mit einem bekannten Bild übereinstimmt, kann ein genauerer Standort mit dem empfangenen Bild verbunden werden. Oder alternativ können der Standort und die Ausrichtung des mobilen Benutzergerätes korrigiert werden. Dies kann durch eine Auflösung für die relative Haltung oder den relativen Standort und die Ausrichtung des empfangenen Bildes auf der Grundlage der Übereinstimmungen mit den Bildinformationen aus der Datenbank geschehen. Alternativ können die bekannte Position und Ausrichtung der Referenzbilder direkt verwendet werden. Diese Informationen können an dem Gerät selbst aktualisiert werden, sie können im Netz (z. B. durch Server 302) oder in beiden unterhalten werden. Außerdem ist es wahrscheinlich, dass der Benutzer an dem Sonderziel interessiert ist, wenn es eine starke Übereinstimmung mit einem Gebäude oder einem anderen Sonderziel gibt.
  • Die Bildverarbeitung kann in zwei Teile aufgespalten werden. Ein Teil ist die Erstellung eines Indexes. Der andere ist der Abgleich mit einem zuvor erstellten Index. 8A–C veranschaulichen eine Art, die Erstellung eines Indexes auszuführen. Zuerst kann eine Region 450 eine geographische Zelle 452 einschließen, wie in 8A gezeigt. Ein oder mehrere Bilder sind mit Zelle 452 verbunden. Wie hier verwendet, schließt eine „Zelle” einen begrenzten geografischen Bereich an einem Punkt der Erde ein. Zellen können unterschiedliche Größen haben. Zum Beispiel können Zellen in etwa die Größe von Dutzenden bis zu Hunderten von Metern auf jeder Seite haben. Je nach der Menge von verfügbaren Informationen kann die Region 450 in kleinere Zellen aufgespalten werden. Daher kann sie, wie in 8B gezeigt, vier Zellen 454 haben. Oder sie kann, wie in 8C gezeigt sechzehn Zellen 456 haben. In einem Beispiel kann es Dutzende oder Hunderte Bilder geben, die mit einer bestimmten Zelle verbunden sind.
  • Die Bilder jeder Zelle haben bestimmte Eigenschaften. Zum Beispiel kann jedes Bild mit Standortinformationen wie Breitengrad/Längengrad, Ausrichtung und Höhe verbunden sein. Das Bild schließt auch Bilddetails ein. Die Bilddetails können Ecken, Ränder oder Linien, Helligkeitsänderungen, Histogramme oder andere Bildfilterungsausgaben von bekannten Bildverarbeitungstechniken einschließen. Einige oder alle dieser Eigenschaften können aus den Bildern gewonnen und in einem Index für die betreffende Zelle gespeichert werden. Die Datenbank(en) kann/können die Bilder selbst in einem bekannten Bildformat wie JPEG speichern. Die Index- und Zelleninformationen können in jedem zweckdienlichen Format gespeichert werden. Ohne die Erfindung durch eine bestimmte Datenstruktur einzuschränken, können die Daten in Computerregistern, in einer relationalen Datenbank als Tabelle mit einer Vielzahl von verschiedenen Feldern und Aufzeichnungen, XML-Dokumenten oder Flachdateien gespeichert werden. Die indexierten Eigenschaften werden wünschenswerterweise in einer Form, die einen schnellen Vergleich mit Anfrageneigenschaften erlaubt, gespeichert, wie einem k-dimensionalen Baum (kd-Baum).
  • Jede Zelle hat vorzugsweise auch eine eindeutige ID, die mit ihr verbunden ist. Zum Beispiel kann die eindeutige ID von den Koordinaten der Zelle (z. B. der Breiten-/Längengrad der Mitte der Zelle) abgeleitet werden. Ein empfangenes Bild kann schnell mit einem bestimmten Index abgeglichen werden. Nur beispielshalber können die Indizes in eine Speicherdatenbank mit Schlüsselwerten geschrieben werden, in der der Schlüssel die eindeutige ID der Zelle ist. Hier ist der Wert der erstellte Index für die betreffende Zelle.
  • Die Datenbank kann auch die Richtung berücksichtigen, in die das Referenzbild blickt. Es können separate Kompassrichtungen verwendet werden. Hier kann für jede Richtung ein eigener Index erstellt werden.
  • 9 veranschaulicht ein System 500 für die Durchführung der Bildabgleichung, sobald Indizes erstellt wurden. Das System 500 umfasst Module für die Handhabung der unterschiedlichen Aspekte des Bildabgleichs. Das System 500 schließt vorzugsweise ein erstes Modul ein, das als Modul mit einem Front-End-Server 502 gezeigt wird. Ein Zellenabgleichmodul kann einen oder mehrere Zellenabgleichserver 504 enthalten. Und ein indexiertes Modul enthält einen Indexspeicherserver, 506. Jeder dieser Server kann so konfiguriert sein, wie vorstehend bei Server 302, der in 6 und 7 gezeigt wird, beschrieben. Zwar wird dies nicht gezeigt, aber der Indexspeicherserver 506 kann an Bilddatenbank 324 und an Karten-/Zellendatenbank 326 gekoppelt sein. Zwar werden die Server als separate Geräte gezeigt, aber es ist möglich, eine einzige Maschine einzusetzen, die mehrere Unterprozessoren hat, die als separate Server fungieren.
  • Der Front-End-Server 502 empfängt eine Bild-/Abgleichanfrage, zum Beispiel von einer Anwendung oder Oberfläche auf dem mobilen Benutzergerät. Die Anfrage schließt ein Bild und entsprechende Metadaten über den geographischen Standort und die Ausrichtung des Bildes ein (falls vorhanden). Der Front-End-Server 502 verwendet die empfangenen Standortinformationen sowie eine Schätzung eines möglichen Fehlers in den Standortinformationen, um eine kleine Untergruppe Zellen zu bestimmen, die mit dem Bild abgeglichen werden.
  • Der Bildabgleich wird durch einen oder mehrere Zellenabgleichserver 504 durchgeführt. Der Abgleich mit Zellen kann durchgeführt werden, indem gleichzeitig viele Zellenabgleichserver 504 verwendet werden. Jedem Zellenabgleichserver 504 werden das empfangene Bild und der Schlüssel einer Zelle bereitgestellt, die er mit dem empfangenen Bild abgleichen soll. Ein bestimmter Zellenabgleichserver 504 fordert dann einen oder mehrere Indexspeicherserver 506 an, um auf die Indexdaten für die betreffende Zelle zuzugreifen.
  • Jeder Zellenabgleichserver 504 gleicht das empfangene Bild mit seinen jeweiligen Indexdaten ab. Eine oder mehrere Abgleichreferenzen (falls vorhanden) werden an den Front-End-Server 502 zurückgeschickt. Diese Resultate schließen vorzugsweise eine Zuverlässigkeitsanzeige für die Übereinstimmung ein. Außerdem kann der Zellenabgleichserver 504 die verbesserte/korrigierte Position und Ausrichtung für das empfangene Bild feststellen und zurückschicken.
  • Der Zellenabgleichserver 504 kann die Standort- und/oder die Ausrichtungssensoren des mobilen Benutzergerätes verwenden, um eine Geolokalisierungsüberprüfung mit allen Übereinstimmungen durchzuführen. Wenn ein Übereinstimmungsresultat einen Standort und eine Ausrichtung anzeigt, die sich sehr stark von denjenigen unterscheidet, die von den Sensoren des Gerätes gemeldet werden, kann die Übereinstimmungszuverlässigkeit zugewiesen werden, damit das Resultat dementsprechend gesenkt werden kann.
  • Der/die Indexspeicherserver(s) 506 empfangen den Schlüssel /die eindeutige ID und schicken alle verbundenen Daten zurück. Da der Index sehr groß sein kann (z. B. Hunderte oder Tausende Gigabytes Daten), können verschiedene Untergruppen Daten auf verschiedenen Computern oder in den verschiedenen Datenzentren gespeichert werden. Die korrekte Datenuntergruppe oder die Teilmenge (ein Bruchteil) für einen gegebenen Indexschlüssel kann mit einem Hashing-Schema festgestellt werden.
  • Der Front-End-Server 502 wird so konfiguriert, dass er die von den Zellenabgleichservern 504 zurückgeschickten Resultate sortiert. Der Front-End-Server kann für die von den Zellenabgleichservern bereitgestellten Übereinstimmungspunkte eine Schwelle festlegen. Das/die Resultat(e) mit der höchsten Korrelation und/oder Zuverlässigkeit wird (werden) als eine mögliche Übereinstimmung ermittelt.
  • Wie vorstehend erörtert, können die Resultate verwendet werden, um dem mobilen Benutzergerät die korrigierten Standortinformationen bereitzustellen. Sie können auch verwendet werden, um dem Gerät verbesserten Inhalt bereitzustellen. Zum Beispiel können Informationen über das Sonderziel im Bild bereitgestellt werden. Oder es kann zusätzlicher Inhalt betreffend nahe gelegene Gebäude und Attraktionen bereitgestellt werden, wie über eine lokale Auflistung oder eine Anwendung wie die Gelben Seiten. Die Resultate können auch in einer Augmented-Reality-Anwendung verwendet werden.
  • Obwohl Aspekte der Erfindung hierin mit Bezug auf bestimmte Ausführungsformen beschrieben wurde, versteht sich, dass diese Ausführungsformen lediglich die Grundsätze und Anwendungen der vorliegenden Erfindung darstellen. Es versteht sich daher, dass zahlreiche Modifizierungen an den darstellenden Ausführungsformen vorgenommen werden können und dass andere Anordnungen konzipiert werden können, ohne vom Erfindungsgedanken und Umfang der vorliegenden Erfindung, wie durch die hinzugefügten Ansprüche definiert, abzuweichen.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die vorliegende Erfindung genießt eine breite industrielle Anwendbarkeit, einschließlich unter anderem für Datenverarbeitungssysteme in Computern.

Claims (10)

  1. Ein Bildverarbeitungsapparat, umfassend: Ein Front-End-Modul, das so konfiguriert ist, dass es eine Bildanfrage von einem Benutzergerät empfängt, wobei die Bildanfrage ein Bild von Interesse und Standortmetadaten für das Bild von Interesse umfasst und das Front-End-Modul ferner so konfiguriert ist, dass es die Standortmetadaten analysiert, um eine oder mehrere Zellen auszuwählen, die im Vergleich zu dem Bild von Interesse ausgewertet werden, wobei jede Zelle ein oder mehr mit ihr verbundene geolokalisierte Bilder und Indexdaten hat; und Ein Zellenübereinstimmungsmodul, das so konfiguriert ist, dass es das Bild von Interesse mit den Indexdaten der ausgewählten Zellen vergleicht und jegliche Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten ermittelt.
  2. Bildverarbeitungsapparat nach Anspruch 1, worin das Zellenübereinstimmungsmodul eine Vielzahl von Zellenübereinstimmungsservern umfasst und bestimmte der Zellenübereinstimmungsserver zugewiesen werden, um den Vergleich für entsprechende der ausgewählten Zellen durchzuführen.
  3. Bildverarbeitungsapparat nach Anspruch 2, worin die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmungen bereitgestellt werden, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt.
  4. Bildverarbeitungsapparat nach Anspruch 2, ferner ein indexiertes Modul umfassend, das so konfiguriert ist, dass es die Indexdaten einer jeden Zelle speichert.
  5. Bildverarbeitungsapparat nach Anspruch 4, worin jede Zelle eine damit verbundene eindeutige ID hat und jeder vorgegebene Zellenübereinstimmungsserver auf die Indexdaten der entsprechenden Zelle aus dem indexierten Modul zugreift, wobei er einen Schlüssel verwendet, der die eindeutige ID dieser Zelle darstellt.
  6. Bildverarbeitungsapparat nach Anspruch 5, worin die eindeutige ID einer jeden Zelle von den Geolokalisierungskoordinaten dieser Zelle abgeleitet wird.
  7. Bildverarbeitungsapparat nach Anspruch 1, worin die Indexdaten Eigenschaften der geolokalisierten Bilder entsprechen.
  8. Bildverarbeitungsapparat nach Anspruch 7, worin die Eigenschaften aus dem aus Ecken, Rändern oder Linien, Helligkeitsinformationen und Histogramminformationen bestehenden Satz ausgewählt werden.
  9. Ein Speicher, auf dem computerlesbare Anweisungen eines Computerprogramms gespeichert sind, wobei die Anweisungen, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass der Prozessor ein Verfahren durchführt, wobei das Verfahren Folgendes umfasst: Empfangen einer Bildanfrage von einem Benutzergerät, wobei die Bildanfrage ein Bild von Interesse und Standortmetadaten für das Bild von Interesse einschließt; Analyse der Standortmetadaten für die Auswahl einer oder mehrerer Zellen, die im Vergleich mit einem Bild von Interesse auszuwerten sind, wobei mit jeder Zelle ein oder mehrere geolokalisierte Bilder und Indexdaten verbunden sind; für jede ausgewählte Zelle, der Vergleich des Bildes von Interesse mit den Indexdaten dieser Zelle; Ermittlung jeglicher Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten; und Bereitstellung der Übereinstimmungen.
  10. Speicher nach Anspruch 9, worin das Verfahren die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmungen bereitstellt, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt.
DE202010018498.3U 2009-12-07 2010-12-07 Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz Expired - Lifetime DE202010018498U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/632,338 2009-12-07
US12/632,338 US8189964B2 (en) 2009-12-07 2009-12-07 Matching an approximately located query image against a reference image set

Publications (1)

Publication Number Publication Date
DE202010018498U1 true DE202010018498U1 (de) 2017-01-27

Family

ID=44082077

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202010018498.3U Expired - Lifetime DE202010018498U1 (de) 2009-12-07 2010-12-07 Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz

Country Status (6)

Country Link
US (3) US8189964B2 (de)
EP (2) EP2510495A4 (de)
AU (1) AU2010328337B2 (de)
CA (1) CA2783014C (de)
DE (1) DE202010018498U1 (de)
WO (1) WO2011071861A2 (de)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US20100235356A1 (en) * 2009-03-10 2010-09-16 Microsoft Corporation Organization of spatial sensor data
US9087059B2 (en) * 2009-08-07 2015-07-21 Google Inc. User interface for presenting search results for multiple regions of a visual query
US9135277B2 (en) 2009-08-07 2015-09-15 Google Inc. Architecture for responding to a visual query
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US9197736B2 (en) 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US8977639B2 (en) * 2009-12-02 2015-03-10 Google Inc. Actionable search results for visual queries
US9405772B2 (en) * 2009-12-02 2016-08-02 Google Inc. Actionable search results for street view visual queries
US20110128288A1 (en) * 2009-12-02 2011-06-02 David Petrou Region of Interest Selector for Visual Queries
US8811742B2 (en) 2009-12-02 2014-08-19 Google Inc. Identifying matching canonical documents consistent with visual query structural information
US8805079B2 (en) 2009-12-02 2014-08-12 Google Inc. Identifying matching canonical documents in response to a visual query and in accordance with geographic information
US9176986B2 (en) 2009-12-02 2015-11-03 Google Inc. Generating a combination of a visual query and matching canonical document
US9183224B2 (en) * 2009-12-02 2015-11-10 Google Inc. Identifying matching canonical documents in response to a visual query
US9852156B2 (en) 2009-12-03 2017-12-26 Google Inc. Hybrid use of location sensor data and visual query to return local listings for visual query
US8189964B2 (en) 2009-12-07 2012-05-29 Google Inc. Matching an approximately located query image against a reference image set
US8774527B1 (en) 2009-12-07 2014-07-08 Google Inc. Matching an approximately located query image against a reference image set using cellular base station and wireless access point information
KR100970121B1 (ko) * 2009-12-24 2010-07-13 (주)올라웍스 상황에 따라 적응적으로 이미지 매칭을 수행하기 위한 방법, 시스템, 및 컴퓨터 판독 가능한 기록 매체
WO2011082332A1 (en) * 2009-12-31 2011-07-07 Digimarc Corporation Methods and arrangements employing sensor-equipped smart phones
US8447741B2 (en) * 2010-01-25 2013-05-21 Sepaton, Inc. System and method for providing data driven de-duplication services
KR100985737B1 (ko) * 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
JP4856262B2 (ja) * 2010-05-31 2012-01-18 株式会社東芝 動き検出装置及び動き検出方法
US9031809B1 (en) * 2010-07-14 2015-05-12 Sri International Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
KR101699922B1 (ko) * 2010-08-12 2017-01-25 삼성전자주식회사 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법
CN103168294A (zh) * 2010-10-22 2013-06-19 瑞典爱立信有限公司 图像匹配装置和图像匹配方法
US8635556B2 (en) 2010-11-30 2014-01-21 Alcatel Lucent Human readable iconic display server
US8971641B2 (en) * 2010-12-16 2015-03-03 Microsoft Technology Licensing, Llc Spatial image index and associated updating functionality
US8521128B1 (en) 2011-12-09 2013-08-27 Google Inc. Method, system, and computer program product for obtaining crowd-sourced location information
EP2798839A4 (de) * 2011-12-28 2015-08-05 Intel Corp Systeme, verfahren und vorrichtung zur bereitstellung von inhalten auf der basis einer bildersammlung
US20150161619A1 (en) * 2012-01-05 2015-06-11 Google Inc. Verifying a business listing based on photographic business listing information obtained through image recognition
KR101942288B1 (ko) * 2012-04-23 2019-01-25 한국전자통신연구원 위치 보정 장치 및 방법
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
US20150116482A1 (en) 2012-05-29 2015-04-30 Abb Research Ltd Object inspection in an industrial plant
CN102842275A (zh) * 2012-08-10 2012-12-26 鸿富锦精密工业(深圳)有限公司 智能路灯及广告投放服务器和系统
US9325861B1 (en) 2012-10-26 2016-04-26 Google Inc. Method, system, and computer program product for providing a target user interface for capturing panoramic images
US9270885B2 (en) 2012-10-26 2016-02-23 Google Inc. Method, system, and computer program product for gamifying the process of obtaining panoramic images
US9251433B2 (en) 2012-12-10 2016-02-02 International Business Machines Corporation Techniques for spatial semantic attribute matching for location identification
US9088625B1 (en) 2012-12-12 2015-07-21 Google Inc. Obtaining an image for a place of interest
US9928652B2 (en) 2013-03-01 2018-03-27 Apple Inc. Registration between actual mobile device position and environmental model
US9531722B1 (en) 2013-10-31 2016-12-27 Google Inc. Methods for generating an activity stream
US9542457B1 (en) 2013-11-07 2017-01-10 Google Inc. Methods for displaying object history information
US9614880B1 (en) 2013-11-12 2017-04-04 Google Inc. Methods for real-time notifications in an activity stream
IL229860A0 (en) * 2013-12-08 2014-01-30 Shop Cloud Ltd System and method for intrastructural navigation
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
US9509772B1 (en) 2014-02-13 2016-11-29 Google Inc. Visualization and control of ongoing ingress actions
GB2523598A (en) * 2014-02-28 2015-09-02 Super Local Ltd Method for determining the position of a client device
US10410169B2 (en) 2014-05-30 2019-09-10 Walmart Apollo, Llc Smart inventory management and database sharding
US9659079B2 (en) 2014-05-30 2017-05-23 Wal-Mart Stores, Inc. Shard determination logic for scalable order and inventory management architecture with a sharded transactional database
US10346897B2 (en) 2014-05-30 2019-07-09 Walmart Apollo, Llc Method and system for smart order management and application level sharding
US10043208B2 (en) 2014-05-30 2018-08-07 Walmart Apollo, Llc Smart order management and database sharding
US9536199B1 (en) 2014-06-09 2017-01-03 Google Inc. Recommendations based on device usage
US9507791B2 (en) 2014-06-12 2016-11-29 Google Inc. Storage system user interface with floating file collection
US10078781B2 (en) 2014-06-13 2018-09-18 Google Llc Automatically organizing images
WO2016004330A1 (en) 2014-07-03 2016-01-07 Oim Squared Inc. Interactive content generation
US20160171004A1 (en) * 2014-12-11 2016-06-16 Pitney Bowes Inc. Method and system for improving the location precision of an object taken in a geo-tagged photo
US9870420B2 (en) 2015-01-19 2018-01-16 Google Llc Classification and storage of documents
GB2535190A (en) 2015-02-12 2016-08-17 Nokia Technologies Oy A method, a system, an apparatus and a computer program product for image-based retrieval
US9760792B2 (en) 2015-03-20 2017-09-12 Netra, Inc. Object detection and classification
US9922271B2 (en) 2015-03-20 2018-03-20 Netra, Inc. Object detection and classification
US20160292507A1 (en) * 2015-03-30 2016-10-06 Ziad Ghoson Information Processing System and Method Using Image Recognition
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
JP6593665B2 (ja) * 2016-02-26 2019-10-23 日本電気株式会社 画像表示システム、端末、方法およびプログラム
US10353950B2 (en) * 2016-06-28 2019-07-16 Google Llc Visual recognition using user tap locations
KR101882370B1 (ko) * 2016-09-05 2018-07-26 네이버랩스 주식회사 지역 분할과 파노라마 분할 기법을 이용한 위치기반 관심지점 정보 검색 시스템 및 방법
US10163008B2 (en) * 2016-10-04 2018-12-25 Rovi Guides, Inc. Systems and methods for recreating a reference image from a media asset
US10169894B2 (en) * 2016-10-06 2019-01-01 International Business Machines Corporation Rebuilding images based on historical image data
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
CN107257562B (zh) * 2017-06-12 2019-11-26 中国联合网络通信集团有限公司 归属地的确认方法和确认系统
KR102107207B1 (ko) * 2017-09-11 2020-05-06 주식회사 제주컨버전스 이미지 검색 방법, 및 이미지 검색 방법을 실행시키는 프로그램이 기록된 기록 매체
CN107895050A (zh) * 2017-12-07 2018-04-10 联想(北京)有限公司 图片搜索方法及系统
US20190361983A1 (en) * 2018-05-25 2019-11-28 Microsoft Technology Licensing, Llc Sensor fusion for generating queries
CA3104532C (en) 2018-06-27 2023-10-17 Niantic, Inc. Multi-sync ensemble model for device localization
CN109325436A (zh) * 2018-09-17 2019-02-12 王虹 人脸识别系统及服务器
JP7205332B2 (ja) * 2019-03-20 2023-01-17 株式会社リコー 診断処理装置、診断システム、診断処理方法、及びプログラム
US11017233B2 (en) 2019-03-29 2021-05-25 Snap Inc. Contextual media filter search
US11537985B2 (en) * 2019-09-26 2022-12-27 International Business Machines Corporation Anonymous inventory tracking system
WO2021091552A1 (en) * 2019-11-06 2021-05-14 Google Llc Use of image sensors to query real world for geo-reference information
CN112784174A (zh) * 2019-11-08 2021-05-11 华为技术有限公司 确定位姿的方法、装置和系统
CN113220928B (zh) * 2020-01-21 2024-06-11 北京达佳互联信息技术有限公司 一种图像搜索方法、装置、电子设备及存储介质
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
WO2022010451A1 (en) * 2020-07-06 2022-01-13 Google Llc Stable orientation cues for augmented reality (ar)

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5128874A (en) 1990-01-02 1992-07-07 Honeywell Inc. Inertial navigation sensor integrated obstacle detection system
US5579471A (en) * 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
US6282489B1 (en) 1993-05-28 2001-08-28 Mapquest.Com, Inc. Methods and apparatus for displaying a travel route and generating a list of places of interest located near the travel route
US5948040A (en) 1994-06-24 1999-09-07 Delorme Publishing Co. Travel reservation information and planning system
JP3743988B2 (ja) * 1995-12-22 2006-02-08 ソニー株式会社 情報検索システムおよび方法、並びに情報端末
JPH09330336A (ja) * 1996-06-11 1997-12-22 Sony Corp 情報処理装置
US6222939B1 (en) * 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US5901245A (en) * 1997-01-23 1999-05-04 Eastman Kodak Company Method and system for detection and characterization of open space in digital images
KR100255758B1 (ko) 1997-11-21 2000-05-01 전주범 삼각 그리드로 표현된 지형상을 이동하는 물체의 위치가 존재하는 삼각형 탐색방법
US6118404A (en) 1998-01-21 2000-09-12 Navigation Technologies Corporation Method and system for representation of overlapping features in geographic databases
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
BR9909611B1 (pt) * 1998-04-13 2012-08-07 mÉtodo e aparelho para detectar caracterÍsticas faciais em uma sequÊncia de quadros de imagem compreendendo uma imagem de um rosto.
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US6714661B2 (en) * 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US7050624B2 (en) * 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
JP4155671B2 (ja) 1999-07-12 2008-09-24 アルパイン株式会社 車載用ナビゲーション装置
US6466695B1 (en) * 1999-08-04 2002-10-15 Eyematic Interfaces, Inc. Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives
US6401034B1 (en) 1999-09-02 2002-06-04 Navigation Technologies Corp. Method and system for finding intermediate destinations with a navigation system
US6405123B1 (en) 1999-12-21 2002-06-11 Televigation, Inc. Method and system for an efficient operating environment in a real-time navigation system
US6587782B1 (en) 2000-03-14 2003-07-01 Navigation Technologies Corp. Method and system for providing reminders about points of interests while traveling
KR20040041082A (ko) * 2000-07-24 2004-05-13 비브콤 인코포레이티드 멀티미디어 북마크와 비디오의 가상 편집을 위한 시스템및 방법
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
US7680324B2 (en) * 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) * 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
JP4977291B2 (ja) 2000-11-17 2012-07-18 日本電気株式会社 情報提供サーバ及び情報提供検索実行プログラムを記録した記録媒体
US6421602B1 (en) 2001-01-03 2002-07-16 Motorola, Inc. Method of navigation guidance for a distributed communications system having communications nodes
DE10103922A1 (de) * 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US6917703B1 (en) * 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US6542814B2 (en) 2001-03-07 2003-04-01 Horizon Navigation, Inc. Methods and apparatus for dynamic point of interest display
US7162507B2 (en) 2001-03-08 2007-01-09 Conexant, Inc. Wireless network site survey tool
US7149625B2 (en) 2001-05-31 2006-12-12 Mathews Michael B Method and system for distributed navigation and automated guidance
US6834115B2 (en) * 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
US7082365B2 (en) 2001-08-16 2006-07-25 Networks In Motion, Inc. Point of interest spatial rating search method and system
US20030069690A1 (en) 2001-10-04 2003-04-10 General Motors Corporation Method and system for navigation-enhanced directory assistance
AU2003223090A1 (en) 2002-04-30 2003-11-17 Telmap Ltd. Template-based map distribution system
AU2003253765A1 (en) 2002-06-27 2004-01-19 Small World Productions, Inc. System and method for locating and notifying a user of a person, place or thing having attributes matching the user's stated prefernces
US7155339B2 (en) 2003-06-13 2006-12-26 Alpine Electronics, Inc. Display method and apparatus for navigation system for searching POI and arranging listing order of POI
US6839628B1 (en) 2003-06-13 2005-01-04 Alpine Electronics, Inc Display method and apparatus for arranging order of listing points of interest for navigation system
US7388519B1 (en) 2003-07-22 2008-06-17 Kreft Keith A Displaying points of interest with qualitative information
US6954697B1 (en) 2003-08-04 2005-10-11 America Online, Inc. Using a corridor search to identify locations of interest along a route
US7324896B1 (en) 2003-08-04 2008-01-29 Aol Llc Using a corridor search to identify locations of interest along a travel route
US7353109B2 (en) 2004-02-05 2008-04-01 Alpine Electronics, Inc. Display method and apparatus for navigation system for performing cluster search of objects
US7565139B2 (en) * 2004-02-20 2009-07-21 Google Inc. Image-based search engine for mobile phones with camera
US7751805B2 (en) * 2004-02-20 2010-07-06 Google Inc. Mobile image-based information retrieval system
US8421872B2 (en) * 2004-02-20 2013-04-16 Google Inc. Image base inquiry system for search engines for mobile telephones with integrated camera
US7532899B2 (en) 2004-04-15 2009-05-12 At&T Mobility Ii Llc System for providing location-based services in a wireless network, such as locating sets of desired locations
WO2006023046A1 (en) * 2004-06-21 2006-03-02 Nevengineering, Inc. Single image based multi-biometric system and method
JP2006029885A (ja) 2004-07-14 2006-02-02 Alpine Electronics Inc 施設検索システムおよび方法
NO323521B1 (no) 2004-09-10 2007-06-04 Telenor Asa Lokasjonsbildekommentering pa kameratelefoner
US8825682B2 (en) * 2006-07-31 2014-09-02 Ricoh Co., Ltd. Architecture for mixed media reality retrieval of locations and registration of images
KR100696801B1 (ko) 2005-03-04 2007-03-19 엘지전자 주식회사 네비게이션 시스템 및 그 관심위치 검색방법
US7519200B2 (en) * 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
US7917286B2 (en) * 2005-12-16 2011-03-29 Google Inc. Database assisted OCR for street scenes and other images
US7698062B1 (en) 2006-01-12 2010-04-13 Sprint Spectrum L.P. Most convenient point of interest finder apparatus and method
US7761350B1 (en) 2006-04-26 2010-07-20 Aol Inc. Biasing of search result clustering to ensure more effective point of interest (POI) targeting
US9665597B2 (en) 2006-12-05 2017-05-30 Qualcomm Incorporated Method and system for processing images using time and location filters
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
JP4703605B2 (ja) * 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法
US20090083275A1 (en) * 2007-09-24 2009-03-26 Nokia Corporation Method, Apparatus and Computer Program Product for Performing a Visual Search Using Grid-Based Feature Organization
US8131118B1 (en) 2008-01-31 2012-03-06 Google Inc. Inferring locations from an image
US8239130B1 (en) * 2009-11-12 2012-08-07 Google Inc. Enhanced identification of interesting points-of-interest
US8189964B2 (en) 2009-12-07 2012-05-29 Google Inc. Matching an approximately located query image against a reference image set
US8624725B1 (en) 2011-09-22 2014-01-07 Amazon Technologies, Inc. Enhanced guidance for electronic devices having multiple tracking modes

Also Published As

Publication number Publication date
AU2010328337A1 (en) 2012-06-28
CA2783014A1 (en) 2011-06-16
EP2510495A2 (de) 2012-10-17
US20140029798A1 (en) 2014-01-30
WO2011071861A2 (en) 2011-06-16
CA2783014C (en) 2016-07-12
US8768107B2 (en) 2014-07-01
WO2011071861A8 (en) 2012-08-09
AU2010328337B2 (en) 2013-09-12
US20110135207A1 (en) 2011-06-09
EP2510495A4 (de) 2016-10-12
US8189964B2 (en) 2012-05-29
WO2011071861A3 (en) 2011-09-22
US20120114239A1 (en) 2012-05-10
EP3547157A1 (de) 2019-10-02

Similar Documents

Publication Publication Date Title
DE202010018498U1 (de) Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz
US8798378B1 (en) Scene classification for place recognition
EP3017275B1 (de) Positionsbestimmungsverfahren für ein vermessungsgerät und ein ebensolches vermessungsgerät
DE202014010935U1 (de) Aktualisierungen von 3D-Modellen mithilfe von Crowd-Sourcing-basiertem Videomaterial
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE202015009198U1 (de) Auswahl der zeitlich verteilten Panoramabilder für die Anzeige
DE202016007816U1 (de) Das Entdecken von Unternehmen aus Bildern
DE112015005191T5 (de) Ausrichten von Panoramaaufnahmen und Luftaufnahmen
DE202011110900U1 (de) Systeme zum Sammeln und Bereitstellen von Kartenbildern
DE112011103221T5 (de) Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten
DE112019002080T5 (de) Systeme und verfahren zur stellungsbestimmung
DE112015006255T5 (de) Objekterkennungsvorrichtung, Objekterkennungsverfahren, und Programm
DE102016214875A1 (de) Schildbasierte Ortung
DE202014010843U1 (de) Ausrichten von bodenbasierten Bildern mit Luftbildern
DE202011110874U1 (de) System zur Bestimmung von Gebäudenummern
DE102012218390A1 (de) Optimierung der Erkennung von Objekten in Bildern
DE112011102043T5 (de) Objekterfassungsmetadaten
DE112016002022T5 (de) Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung
DE202014010966U1 (de) Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE112016001304T5 (de) Detektieren des Ortes einer Mobilvorrichtung basierend auf semantischen Indikatoren
DE202016006008U1 (de) Automatische Erkennung von Panoramagesten
DE202015009139U1 (de) Bildmodifikation
DE102019120561A1 (de) System und verfahren zur automatischen relokalisierung und automatischen angleichung vorhandener nichtdigitaler grundrisspläne
DE202018100752U1 (de) Bayesische Methodik für georäumliche Objekt-/Merkmalserkennung

Legal Events

Date Code Title Description
R151 Utility model maintained after payment of second maintenance fee after six years
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right