DE202010018498U1 - Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz - Google Patents
Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz Download PDFInfo
- Publication number
- DE202010018498U1 DE202010018498U1 DE202010018498.3U DE202010018498U DE202010018498U1 DE 202010018498 U1 DE202010018498 U1 DE 202010018498U1 DE 202010018498 U DE202010018498 U DE 202010018498U DE 202010018498 U1 DE202010018498 U1 DE 202010018498U1
- Authority
- DE
- Germany
- Prior art keywords
- image
- cell
- interest
- index data
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
- G06V20/39—Urban scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Ein Bildverarbeitungsapparat, umfassend: Ein Front-End-Modul, das so konfiguriert ist, dass es eine Bildanfrage von einem Benutzergerät empfängt, wobei die Bildanfrage ein Bild von Interesse und Standortmetadaten für das Bild von Interesse umfasst und das Front-End-Modul ferner so konfiguriert ist, dass es die Standortmetadaten analysiert, um eine oder mehrere Zellen auszuwählen, die im Vergleich zu dem Bild von Interesse ausgewertet werden, wobei jede Zelle ein oder mehr mit ihr verbundene geolokalisierte Bilder und Indexdaten hat; und Ein Zellenübereinstimmungsmodul, das so konfiguriert ist, dass es das Bild von Interesse mit den Indexdaten der ausgewählten Zellen vergleicht und jegliche Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten ermittelt.
Description
- VERWEIS
- Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind dabei, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
- HINTERGRUND DER ERFINDUNG
- Gebiet der Erfindung
- Aspekte der Erfindung beziehen sich allgemein auf digitales Bildmaterial. Insbesondere werden Aspekte auf den Abgleich eines empfangenen Bildes mit Geolokalisierungsinformationen mit ausgewählten Referenzbildern gerichtet.
- Beschreibung des Stands der Technik
- Mobile Benutzergeräte wie Mobiltelefone und Personal Digital Assistants („PDAs”) enthalten neben anderen Merkmalen häufig digitale Kameras. Solche Geräte verbinden den Nutzen des drahtlosen Zuganges mit elektronischer Fotografie. Ein Benutzer kann Fotos von Freunden und Familie, Sonderzielen usw. aufnehmen und diese Bilder sofort teilen.
- Bei diesen Bildern kann Bilderkennung angewandt werden. Zum Beispiel können Anwendungen wie mobile visuelle Suchprogramme diese Bilder in dem Versuch analysieren, Eigenschaften wie Sonderziele und Ähnliches zu erkennen. Jedoch kann die mobile visuelle Suche rechnerisch sehr intensiv und auch zeitraubend sein und je nach dem Gerät, welches das Bild erfasst, kann die Suche sich auf die mit dem Bild verbundenen unvollständigen oder ungenauen Standortinformationen verlassen. Aspekte der Erfindung gehen diese und andere Probleme an.
- ZUSAMMENFASSUNG DER ERFINDUNG
- In einer Ausführungsform wird ein Bildverarbeitungsverfahren bereitgestellt. Dieses Verfahren umfasst das Empfangen einer Bildanfrage von einem Benutzergerät, wobei die Bildanfrage ein Bild von Interesse sowie Standortsmetadaten für das Bild von Interesse umfasst; die Analyse der Standortmetadaten, um eine oder mehrere Zellen für die Auswertung im Vergleich zum Bild von Interesse auszuwählen, wobei jede Zelle über ein oder mehrere geolokalisierte Bilder und damit verbundene Indexdaten verfügt; für jede ausgewählte Zelle, den Vergleich des Bildes von Interesse mit den Indexdaten dieser Zelle; und Ermittlung jeglicher Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten; und Bereitstellung der Übereinstimmungen.
- In einer Alternative werden die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmung bereitgestellt, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt. Hier hängt ein Wert der Zuverlässigkeitsanzeige für die Übereinstimmung wünschenswerterweise von der Geolokalisierungsüberprüfung zwischen den Standortmetadaten und den Standortinformationen für die geolokalisierten Bilder der ausgewählten Zellen ab.
- In einer anderen Alternative werden die aktualisierten Standortmetadaten für das Bild von Interesse dem Benutzergerät zusammen mit den Übereinstimmungen bereitgestellt. In einer weiteren Alternative werden die Indexdaten in einem Indexspeicherserver gespeichert und auf die Indexdaten für jede ausgewählte Zelle kann mit einem Schlüssel zugegriffen werden, der die eindeutige ID dieser Zelle darstellt.
- In noch einer weiteren Alternative entsprechen die Indexdaten Eigenschaften der geolokalisierten Bilder. In einem Beispiel werden die Eigenschaften aus dem aus Ecken, Rändern oder Linien, Helligkeitsinformationen und Histogramminformationen bestehenden Satz ausgewählt. In einem anderen Beispiel werden die geolokalisierten Bilder in einer Bilddatenbank gespeichert und die Indexdaten werden in einer Zellendatenbank gespeichert. Und in einem weiteren Beispiel werden die Indexdaten in einem k-dimensionalen Baumformat gespeichert. Und in einem Beispiel hat jede Zelle eine eindeutige ID, die von den Geolokalisierungskoordinaten dieser Zelle abgeleitet wird.
- In einer anderen Ausführungsform wird ein Bildverarbeitungsapparat bereitgestellt. Der Apparat umfasst ein Frontmodul und ein Zellenübereinstimmungsmodul. Das Frontmodul ist so konfiguriert, dass es eine Bildanfrage von einem Benutzergerät empfängt. Die Bildanfrage schließt ein Bild von Interesse und Standortmetadaten für das Bild von Interesse ein. Das Frontmodul ist ferner so konfiguriert, dass es die Standortmetadaten analysiert, um eine oder mehrere Zellen für die Auswertung im Vergleich zu dem Bild von Interesse auszuwählen. Mit jeder Zelle sind ein oder mehrere geolokalisierte Bilder und Indexdaten verbunden. Das Zellenübereinstimmungsmodul ist so konfiguriert, dass es das Bild von Interesse mit den Indexdaten der ausgewählten Zellen vergleicht und jegliche Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten ermittelt.
- In einem Beispiel umfasst das Zellenübereinstimmungsmodul eine Vielzahl von Zellenübereinstimmungsservern und es werden bestimmte der Zellenübereinstimmungsserver zugewiesen, um den Vergleich für entsprechende der ausgewählten Zellen durchzuführen. Hier können die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmungen bereitgestellt werden, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt. Alternativ kann der Apparat ferner ein indexiertes Modul umfassen, das so konfiguriert ist, dass es die Indexdaten einer jeden Zelle speichert. Hier hat jede Zelle wünschenswerterweise eine mit ihr verbundene eindeutige ID. In diesem Fall greift jeder vorgegebene Zellenübereinstimmungsserver auf die Indexdaten der entsprechenden Zelle aus dem indexierten Modul zu, wobei er einen Schlüssel verwendet, der die eindeutige ID dieser Zelle darstellt. Vorzugsweise wird die eindeutige ID für jede Zelle von den Geolokalisierungskoordinaten dieser Zelle abgeleitet.
- In einer weiteren Alternative entsprechen die Indexdaten Eigenschaften der geolokalisierten Bilder. Und in diesem Fall werden die Eigenschaften wünschenswerterweise aus dem aus Ecken, Rändern oder Linien, Helligkeitsinformationen und Histogramminformationen bestehenden Satz ausgewählt.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
-
1 veranschaulicht ein Bild von Interesse. -
2A –B veranschaulichen ein mobiles Benutzergerät gemäß Aspekten der Erfindung. -
3A –B veranschaulichen Kamerawinkelparameter. -
4 veranschaulicht einen Bilderfassungsprozess. -
5 veranschaulicht ein Bilderfassungsszenario. -
6 veranschaulicht ein Computersystem zur Verwendung mit Aspekten der Erfindung. -
7 veranschaulicht Aspekte des Computersystems von6 . -
8A –C veranschaulichen Zellenanordnungen gemäß Aspekten der Erfindung. -
9 veranschaulicht ein Bildübereinstimmungssystem gemäß Aspekten der Erfindung. - AUSFÜHRLICHE BESCHREIBUNG
- Aspekte, Merkmale und Vorteile der Erfindung werden ersichtlich, wenn sie unter Bezugnahme auf die folgende Beschreibung bevorzugter Ausführungsformen und beigefügten Figuren betrachtet wird. Dieselben Referenznummern in unterschiedlichen Zeichnungen können dieselben oder ähnliche Elemente identifizieren. Ferner ist die folgende Beschreibung nicht einschränkend; der Umfang der Erfindung wird durch die beigefügten Ansprüche und Äquivalente definiert.
- Wie vorstehend angemerkt, können Benutzer von mobilen Geräten Fotos von Personen, Orten oder Sonderzielen aufnehmen.
1 ist ein beispielhaftes Bild100 , das von einem mobilen Benutzergerät erfasst werden kann. Ein Beispiel für ein Bild auf Straßenhöhe ist ein Bild von geografischen Objekten, Personen und/oder Objekten, das von einer Kamera in einem Winkel in der Regel senkrecht zum Boden oder in einer Position, in der sich die Kamera am oder in der Nähe des Bodens befindet, aufgenommen wurde. Sowohl die geographischen Objekte im Bild als auch die Kamera haben einen geographischen Standortbezug zueinander. Daher kann, wie in1 gezeigt, das Bild auf Straßenhöhe100 verschiedene geografische Objekte wie Gebäude102 und104 , Gehweg106 , Straße108 , Fahrzeug110 und Personen112 darstellen. Es versteht sich, dass obwohl das Bild auf Straßenhöhe100 zur besseren Verdeutlichung nur wenige Objekte zeigt, ein typisches Bild auf Straßenhöhe so viele Objekte wie möglich enthält, die mit geografischen Standorten (Straßenbeleuchtung, Schilder, Erhebungen, Bäume, Skulpturen, Wasserflächen, Schaufenster usw.) verbunden werden können, in so vielen Details, wie von einem Bilderfassungsgerät wie einer digitalen Kamera erfasst werden können. - Zusätzlich zu der Zuordnung zu geographischen Standorten sind Bilder wie das Bild auf Straßenhöhe
100 üblicherweise mit Informationen verbunden, die die Orientierung des Bildes anzeigen. Wenn die Straßenansicht beispielsweise eine übliche Fotografie enthält, kann die Ausrichtung einfach der Kamerawinkel sein, zum Beispiel als Winkel von 30° Ost vom geografischen Norden dargestellt werden kann und 2° vom Bodenniveau nach oben gerichtet ist. Sind Bilder auf Straßenhöhe Panoramabilder, wie auf den in den geographischen Standort zentrierten 360°-Panoramen, die mit dem Bild verbunden sind, kann die Ausrichtung darauf hindeuten, dass der Teil des Bildes, der einem nördlichen Blick von der Kameraposition aus entspricht mit einen Winkel direkt parallel zum Boden zeigt. -
2A –B veranschaulichen ein mobiles Benutzergerät200 , das so konfiguriert ist, dass es Bilder erfasst. Wie in2A gezeigt, kann das mobile Benutzergerät200 ein PDA oder ein Mobiltelefon mit einer Touchscreen-Anzeige202 , einer universellen Taste204 , einem Lautsprecher206 und einem Mikrofon208 auf der Vorderseite sein. Die linke Seite schließt Volumentasten210 ein. Die obere Seite schließt eine Antenne212 und einen GPS-Empfänger214 ein. Wie in2B gezeigt, schließt die Rückseite eine Kamera216 ein. Die Kamera kann in eine bestimmte Richtung (im Weiteren „Kamerawinkel) ausgerichtet werden. Und wie auf dem Bedienfeld von2A gezeigt, kann eine Zoomtaste oder ein anderer Betätiger218 verwendet werden, um ein Bild auf der Anzeige zu vergrößern oder zu verkleinern. - Bei der Kamera kann es sich um jegliches Gerät handeln, das in der Lage ist, Bilder von Objekten zu erfassen, wie digitale Fotokameras, digitale Videokameras und Bildsensoren (zum Beispiel CCD, CMOS oder sonstige). Bilder können in herkömmlichen Formaten, wie JPEG oder MPEG, gespeichert werden. Die Bilder können lokal in einem Speicher des Gerätes
200 , wie in einem RAM oder auf einer Flash Card, gespeichert werden. Alternativ können die Bilder erfasst und in eine entfernte Datenbank hochgeladen werden. - Der Kamerawinkel kann dreidimensional ausgedrückt werden, wie durch die Achsen X, Y und Z in
2B und schematisch in3A und3B gezeigt. Aus Gründen der Übersichtlichkeit und nicht zur Beschränkung wird angenommen, dass der Kamerawinkel im Verhältnis zur Ausrichtung des Gerätes festgelegt ist. In dieser Hinsicht veranschaulicht3A eine mögliche Neigung des Gerätes (wie zu sehen ist, wenn man auf die linke Seite des Gerätes blickt) im Verhältnis zum Boden, z. B. im Verhältnis zu der zur Richtung der Schwerkraft senkrechten Fläche. -
3B veranschaulicht einen potenziellen Breiten-/Längengradwinkel des Gerätes (zu sehen, wenn man nach unten zur Oberseite des Gerätes blickt), z. B. die Kamerarichtung, in die die Kamera im Verhältnis zur Breite und Länge zeigt. Zusammen definieren die Neigung und der Breiten-/Längengradwinkel eine Kamerahaltung oder einen Standort und eine Ausrichtung. Das Rollen (Drehung um die Y-Achse von2B ), das Gieren/Azimut und/oder die Höhe können ebenfalls erfasst werden. Diese und andere bildbezogene Informationen können als nummerische Werte von einem Beschleunigungsmesser (nicht gezeigt) oder anderen Komponenten im Gerät200 ausgegeben, von dem Prozessor des Gerätes verwendet und in dem Speicher des Gerätes gespeichert werden. - In einem Aspekt kann ein Benutzer das Clientgerät
200 mit der Kamera216 so ausrichten, dass sie auf ein Objekt von Interesse blickt. In dieser Hinsicht kann der Benutzer, wie in4 gezeigt, vor einem Objekt von Interesse stehen, wie vor einem Gebäude oder einem Denkmal und die Kamera216 in eine Richtung220 ausrichten, die auf einen Punkt222 im Sonderziel zeigt. - Die Kamera
216 des Clientgerätes200 kann verwendet werden, um dem Benutzer bei der Ausrichtung des Gerätes in die gewünschte Position auf das Objekt von Interesse, hier Gebäude102 , zu helfen. In dieser Hinsicht kann die Anzeige202 auch ein Ziel, einen Scheibenmittelpunkt oder einen anderen Anzeiger anzeigen, um die genaue oder ungefähre Position des Objektes anzuzeigen, auf das das Gerät200 gerichtet ist. - Sobald ein Bild erfasst wurde, kann der Benutzer wählen, das Bild mit anderen zu teilen. Oder alternativ kann der Benutzer nach mehr Informationen über ein Objekt im Bild suchen. Eine visuelle Suchanwendung kann eingesetzt werden, um Informationen über das Bild zu ermitteln. Dann können dem Benutzer die relevanten Informationen über das Bild bereitgestellt werden. In einem Fall, in dem das Bild an andere geschickt oder in einer externen Datenbank gespeichert wird, können die relevanten Informationen über das Bild auch mit dem Bild gespeichert oder indexiert werden. Jedoch geht es primär um die korrekte Analyse und Klassifizierung des Bildes.
- Ein Aspekt stellt ein System und Verfahren bereit, um ein Bild mit Standortinformationen mit einer Datenbank von zuvor geolokalisierten Referenzbildern abzugleichen. Wie nachstehend detailliert erklärt wird, kann die Datenbank mit den Referenzbildern in geographische Zellen aufgespalten werden. Das empfangene Bild wird mit einer Untergruppe jener Zellen abgeglichen.
- Wenn ein Benutzer unter Verwendung seines mobilen Gerätes ein Bild eines Objektes von Interesse wie von einem Gebäude (z. B. einem Schaufenster) aufnimmt, ist es wünschenswert, Informationen über dieses Gebäude schnell zu ermitteln. In dem Beispiel von
5 macht die Kamera des mobilen Benutzergerätes200 ein Bild des Gebäudes102 . - Die GPS-Einheit des Gerätes
200 kann einen ungefähren Standort angeben, von dem aus das Bild aufgenommen wurde. Jedoch ist der GPS-Sensor des Gerätes möglicherweise nicht genau genug, um auf dem Niveau einzelner Gebäude eindeutig zuzuordnen. Außerdem gibt das Gerät vielleicht nicht immer eine Ausrichtung/Richtung an, die notwendig sein kann, um zu bestimmen, in welche Richtung die Kamera des Gerätes zeigt, bzw. zeichnet es diese eventuell nicht auf. Und selbst wenn die Ausrichtung/Richtung bereitgestellt wird, ist sie möglicherweise nicht sehr genau. So kann im Beispiel von5 das falsche Gebäude ermittelt werden (z. B. Gebäude104 ) oder es kann ein Hintergrundgebäude anstelle einer Person oder eines Objektes im Vordergrund identifiziert werden oder umgekehrt. Um solche Probleme zu überwinden, gleicht ein Aspekt der Erfindung die Fotografie mit einer Datenbank mit Referenzbildern ab. Ein System, das Bild- und/oder Kartendatenbanken enthält, kann eingesetzt werden. Wie in6 gezeigt, stellt System300 ein schematisches Diagramm dar, das verschiedene Computergeräte abbildet, die alleine oder in einer vernetzten Konfiguration gemäß Aspekten der Erfindung benutzt werden können. Diese Figur veranschaulicht zum Beispiel ein Computernetzwerk mit einer Vielzahl von Computern302 ,304 und306 sowie mit anderen Arten von Geräten, z. B. mobile Benutzergeräte wie einen Laptop/Palmtop308 , ein Mobiltelefon310 und ein PDA312 . Die mobilen Benutzergeräte können die vorstehend im Hinblick auf das mobile Benutzergerät200 erörterten Komponenten einschließen. Verschiedene Geräte können über einen lokalen Bus oder eine direkte Verbindung314 miteinander verbunden sein und/oder über ein Kommunikationsnetzwerk316 wie ein LAN, WAN, das Internet usw. gekoppelt sein, das fest verdrahtet oder drahtlos sein kann. - Jedes Computergerät kann zum Beispiel Benutzereingabegeräte wie eine Tastatur
318 und eine Maus320 und/oder verschiedene andere Arten von Eingabegeräten wie Eingabestifte, Joysticks, Tasten, Touchscreens usw. sowie ein Anzeigegerät322 beinhalten, das zum Beispiel eine CRT, LCD, einen Plasmabildschirm-Monitor, ein TV-Gerät, einen Projektor usw. beinhalten könnte. Jeder Computer302 ,304 ,306 und308 kann ein PC, ein Server usw. sein. Nur als Beispiel kann der Computer306 ein PC sein, während Computer302 und304 Server sein können. Datenbanken, wie die Bilddatenbank324 und Kartendatenbank326 sind für einen oder mehrere der Server oder andere Geräte zugänglich. - Wie in Diagramm
400 von7 gezeigt, können die Geräte einen Prozessor402 , einen Speicher404 und andere Komponenten enthalten, die typischerweise Teil eines Computers sind. Der Speicher404 enthält Informationen, die durch den Prozessor402 zugänglich sind, einschließlich Anweisungen406 , die vom Prozessor402 ausgeführt werden können. Er beinhaltet zudem Daten408 , die der Prozessor abrufen, bearbeiten oder speichern kann. Der Speicher kann jeder beliebige Speichertyp sein, der vom Prozessor zugängliche Informationen speichern kann, wie Festplattenlaufwerke, Speicherkarten, ROM, RAM, DVD, CD-ROM, Bluray Disc, beschreibfähige und Nur-Lese-Speicher. Der Prozessor402 kann ein beliebiger bekannter Prozessor sein, wie beispielsweise Prozessoren von Intel oder Advanced Micro Devices. Alternativ dazu kann der Prozessor ein speziell dafür vorgesehener Controller, wie etwa eine ASIC sein. - Die Anweisungen
406 können jeder beliebige Satz Anweisungen zur direkten (wie Maschinencode) oder indirekten (wie Scripts) Ausführung durch den Prozessor sein. In dieser Hinsicht können die Begriffe „Anweisungen”, „Schritte” und „Programme” hierin austauschbar verwendet werden. Die Anweisungen können im Objektcodeformat zur direkten Verarbeitung durch den Prozessor oder in jeder anderen Computersprache einschließlich Scripts und Sammlungen von unabhängigen Sourcecodemodulen gespeichert werden, die auf Anfrage interpretiert oder im Voraus erstellt werden können. Zum Beispiel können die Anweisungen406 Bildverarbeitungsprogramme für die Analyse empfangener Bilder enthalten. Funktionen, Verfahren und Routinen der Anweisungen werden unten ausführlicher erklärt. - Die Daten
408 können vom Prozessor402 gemäß den Anweisungen406 abgerufen, gespeichert oder bearbeitet werden. Zwar sind die Systeme und Verfahren gemäß Aspekten der Erfindung nicht durch eine bestimmte Datenstruktur eingeschränkt, aber die Daten können beispielsweise in Computerregistern, in einer relationalen Datenbank als Tabelle mit einer Vielzahl von verschiedenen Feldern und Aufzeichnungen, XML-Dokumenten oder Flachdateien gespeichert werden. Die Daten können auch in jedem computerlesbaren Format formatiert werden. Als weiteres, nicht einschränkendes Beispiel können Bilddaten als aus Pixeln bestehende Bitmaps in komprimierten oder unkomprimierten, verlustfreien oder verlustbehafteten Formaten (z. B. JPEG), in vektorbasierten Formaten (z. B. SVG) oder Computeranweisungen zur Zeichnung von Grafiken gespeichert werden. Die Daten können alle Informationen umfassen, die zum Erkennen der relevanten Informationen dienen, wie Zahlen, beschreibende Texte, proprietäre Codes, Zeiger, Verweise zu in anderen Speichern abgelegten Daten (einschließlich anderer Netzstandorte) oder Informationen, die von einer Funktion zur Berechnung der relevanten Daten genutzt werden. - Obwohl in
7 Prozessor und Speicher funktional als in dem gleichen Block veranschaulicht werden, wird der Fachmann verstehen, dass Prozessor und Speicher in der Praxis mehrere Prozessoren und Speicher umfassen können, die in dem gleichen physischen Gehäuse untergebracht werden können oder nicht. Beispielsweise können einige der Anweisungen und Daten auf entfernbare CD-ROM oder DVD-ROM und andere in einem Nur-Lese-Computer-Chip gespeichert werden. Einige oder alle Anweisungen und Daten können an einem Standort gespeichert werden, der physisch vom Prozessor entfernt ist, zu dem der Prozessor aber trotzdem Zugang hat. Desgleichen kann der Prozessor eine Reihe von Prozessoren umfassen, die parallel betrieben werden können oder nicht. - In einem Aspekt ist Computer
302 ein Server, der mit einem oder mehreren mobilen Benutzergeräten308 ,310 oder312 und einer Datenbank wie Bilddatenbank324 oder Kartendatenbank326 verbunden ist. Computer302 kann beispielsweise ein Webserver oder ein Anwendungsserver sein. Jedes mobile Gerät kann ähnlich wie Speicher302 wie vorstehend beschrieben mit einem Prozessor, einem Speicher und Anweisungen konfiguriert sein. Jedes mobile Benutzergerät kann auch einen drahtlosen Sendeempfänger (z. B. einen Mobiltelefonempfänger, Bluetooth, Modem vom Typ 802.11 oder WiFi) einschließen. Wie in7 gezeigt, speichert/speichern die Datenbank(en) wünschenswerterweise Bilder416 , einschließlich beispielsweise den Standort und die Ausrichtung (falls bekannt) jeden Bildes und/oder Karten oder Zellen418 . Die Karten/Zellen können jeweils einen Index und eine eindeutige ID haben. - Zusätzlich zu einem Prozessor, einem Speicher, einer Anzeige und dergleichen verfügen die mobilen Benutzergeräte
308 ,310 und312 wünschenswerterweise auch über die Kamera200 , den GPS-Empfänger214 , einen Beschleunigungsmesser410 und einen Sendeempfänger412 für die Kommunikation mit einem Netz oder einzelnen entfernten Geräten. Ein Browser414 oder eine andere Benutzeroberfläche kann in Verbindung mit der Anzeige und Benutzereingaben funktionieren. - Gemäß einem Aspekt der Erfindung wird das Bild mit einer Datenbank mit Bildern aus der ungefähren geographischen Region, in der das Foto gemacht wurde, abgeglichen, um festzustellen, ob ein Objekt von Interesse ein Platz wie ein Gebäude ist. Um den Abgleich lenkbar zu halten, können alle Standortinformationen (z. B. GPS-Koordinaten) verwendet werden, die von dem mobilen Benutzergerät empfangen wurden und die mit dem Bild verbunden sind. Daher können die GPS-Koordinaten des Gerätes als eine ungefähre Anleitung verwendet werden, um einen geeigneten Satz Bilder aus der Datenbank auszuwählen. Dann können diese Bilder mit dem Bild von dem Gerät des Benutzers abgeglichen werden.
- Sobald das empfangene Bild mit einem bekannten Bild übereinstimmt, kann ein genauerer Standort mit dem empfangenen Bild verbunden werden. Oder alternativ können der Standort und die Ausrichtung des mobilen Benutzergerätes korrigiert werden. Dies kann durch eine Auflösung für die relative Haltung oder den relativen Standort und die Ausrichtung des empfangenen Bildes auf der Grundlage der Übereinstimmungen mit den Bildinformationen aus der Datenbank geschehen. Alternativ können die bekannte Position und Ausrichtung der Referenzbilder direkt verwendet werden. Diese Informationen können an dem Gerät selbst aktualisiert werden, sie können im Netz (z. B. durch Server
302 ) oder in beiden unterhalten werden. Außerdem ist es wahrscheinlich, dass der Benutzer an dem Sonderziel interessiert ist, wenn es eine starke Übereinstimmung mit einem Gebäude oder einem anderen Sonderziel gibt. - Die Bildverarbeitung kann in zwei Teile aufgespalten werden. Ein Teil ist die Erstellung eines Indexes. Der andere ist der Abgleich mit einem zuvor erstellten Index.
8A –C veranschaulichen eine Art, die Erstellung eines Indexes auszuführen. Zuerst kann eine Region450 eine geographische Zelle452 einschließen, wie in8A gezeigt. Ein oder mehrere Bilder sind mit Zelle452 verbunden. Wie hier verwendet, schließt eine „Zelle” einen begrenzten geografischen Bereich an einem Punkt der Erde ein. Zellen können unterschiedliche Größen haben. Zum Beispiel können Zellen in etwa die Größe von Dutzenden bis zu Hunderten von Metern auf jeder Seite haben. Je nach der Menge von verfügbaren Informationen kann die Region450 in kleinere Zellen aufgespalten werden. Daher kann sie, wie in8B gezeigt, vier Zellen454 haben. Oder sie kann, wie in8C gezeigt sechzehn Zellen456 haben. In einem Beispiel kann es Dutzende oder Hunderte Bilder geben, die mit einer bestimmten Zelle verbunden sind. - Die Bilder jeder Zelle haben bestimmte Eigenschaften. Zum Beispiel kann jedes Bild mit Standortinformationen wie Breitengrad/Längengrad, Ausrichtung und Höhe verbunden sein. Das Bild schließt auch Bilddetails ein. Die Bilddetails können Ecken, Ränder oder Linien, Helligkeitsänderungen, Histogramme oder andere Bildfilterungsausgaben von bekannten Bildverarbeitungstechniken einschließen. Einige oder alle dieser Eigenschaften können aus den Bildern gewonnen und in einem Index für die betreffende Zelle gespeichert werden. Die Datenbank(en) kann/können die Bilder selbst in einem bekannten Bildformat wie JPEG speichern. Die Index- und Zelleninformationen können in jedem zweckdienlichen Format gespeichert werden. Ohne die Erfindung durch eine bestimmte Datenstruktur einzuschränken, können die Daten in Computerregistern, in einer relationalen Datenbank als Tabelle mit einer Vielzahl von verschiedenen Feldern und Aufzeichnungen, XML-Dokumenten oder Flachdateien gespeichert werden. Die indexierten Eigenschaften werden wünschenswerterweise in einer Form, die einen schnellen Vergleich mit Anfrageneigenschaften erlaubt, gespeichert, wie einem k-dimensionalen Baum (kd-Baum).
- Jede Zelle hat vorzugsweise auch eine eindeutige ID, die mit ihr verbunden ist. Zum Beispiel kann die eindeutige ID von den Koordinaten der Zelle (z. B. der Breiten-/Längengrad der Mitte der Zelle) abgeleitet werden. Ein empfangenes Bild kann schnell mit einem bestimmten Index abgeglichen werden. Nur beispielshalber können die Indizes in eine Speicherdatenbank mit Schlüsselwerten geschrieben werden, in der der Schlüssel die eindeutige ID der Zelle ist. Hier ist der Wert der erstellte Index für die betreffende Zelle.
- Die Datenbank kann auch die Richtung berücksichtigen, in die das Referenzbild blickt. Es können separate Kompassrichtungen verwendet werden. Hier kann für jede Richtung ein eigener Index erstellt werden.
-
9 veranschaulicht ein System500 für die Durchführung der Bildabgleichung, sobald Indizes erstellt wurden. Das System500 umfasst Module für die Handhabung der unterschiedlichen Aspekte des Bildabgleichs. Das System500 schließt vorzugsweise ein erstes Modul ein, das als Modul mit einem Front-End-Server502 gezeigt wird. Ein Zellenabgleichmodul kann einen oder mehrere Zellenabgleichserver504 enthalten. Und ein indexiertes Modul enthält einen Indexspeicherserver,506 . Jeder dieser Server kann so konfiguriert sein, wie vorstehend bei Server302 , der in6 und7 gezeigt wird, beschrieben. Zwar wird dies nicht gezeigt, aber der Indexspeicherserver506 kann an Bilddatenbank324 und an Karten-/Zellendatenbank326 gekoppelt sein. Zwar werden die Server als separate Geräte gezeigt, aber es ist möglich, eine einzige Maschine einzusetzen, die mehrere Unterprozessoren hat, die als separate Server fungieren. - Der Front-End-Server
502 empfängt eine Bild-/Abgleichanfrage, zum Beispiel von einer Anwendung oder Oberfläche auf dem mobilen Benutzergerät. Die Anfrage schließt ein Bild und entsprechende Metadaten über den geographischen Standort und die Ausrichtung des Bildes ein (falls vorhanden). Der Front-End-Server502 verwendet die empfangenen Standortinformationen sowie eine Schätzung eines möglichen Fehlers in den Standortinformationen, um eine kleine Untergruppe Zellen zu bestimmen, die mit dem Bild abgeglichen werden. - Der Bildabgleich wird durch einen oder mehrere Zellenabgleichserver
504 durchgeführt. Der Abgleich mit Zellen kann durchgeführt werden, indem gleichzeitig viele Zellenabgleichserver504 verwendet werden. Jedem Zellenabgleichserver504 werden das empfangene Bild und der Schlüssel einer Zelle bereitgestellt, die er mit dem empfangenen Bild abgleichen soll. Ein bestimmter Zellenabgleichserver504 fordert dann einen oder mehrere Indexspeicherserver506 an, um auf die Indexdaten für die betreffende Zelle zuzugreifen. - Jeder Zellenabgleichserver
504 gleicht das empfangene Bild mit seinen jeweiligen Indexdaten ab. Eine oder mehrere Abgleichreferenzen (falls vorhanden) werden an den Front-End-Server502 zurückgeschickt. Diese Resultate schließen vorzugsweise eine Zuverlässigkeitsanzeige für die Übereinstimmung ein. Außerdem kann der Zellenabgleichserver504 die verbesserte/korrigierte Position und Ausrichtung für das empfangene Bild feststellen und zurückschicken. - Der Zellenabgleichserver
504 kann die Standort- und/oder die Ausrichtungssensoren des mobilen Benutzergerätes verwenden, um eine Geolokalisierungsüberprüfung mit allen Übereinstimmungen durchzuführen. Wenn ein Übereinstimmungsresultat einen Standort und eine Ausrichtung anzeigt, die sich sehr stark von denjenigen unterscheidet, die von den Sensoren des Gerätes gemeldet werden, kann die Übereinstimmungszuverlässigkeit zugewiesen werden, damit das Resultat dementsprechend gesenkt werden kann. - Der/die Indexspeicherserver(s)
506 empfangen den Schlüssel /die eindeutige ID und schicken alle verbundenen Daten zurück. Da der Index sehr groß sein kann (z. B. Hunderte oder Tausende Gigabytes Daten), können verschiedene Untergruppen Daten auf verschiedenen Computern oder in den verschiedenen Datenzentren gespeichert werden. Die korrekte Datenuntergruppe oder die Teilmenge (ein Bruchteil) für einen gegebenen Indexschlüssel kann mit einem Hashing-Schema festgestellt werden. - Der Front-End-Server
502 wird so konfiguriert, dass er die von den Zellenabgleichservern504 zurückgeschickten Resultate sortiert. Der Front-End-Server kann für die von den Zellenabgleichservern bereitgestellten Übereinstimmungspunkte eine Schwelle festlegen. Das/die Resultat(e) mit der höchsten Korrelation und/oder Zuverlässigkeit wird (werden) als eine mögliche Übereinstimmung ermittelt. - Wie vorstehend erörtert, können die Resultate verwendet werden, um dem mobilen Benutzergerät die korrigierten Standortinformationen bereitzustellen. Sie können auch verwendet werden, um dem Gerät verbesserten Inhalt bereitzustellen. Zum Beispiel können Informationen über das Sonderziel im Bild bereitgestellt werden. Oder es kann zusätzlicher Inhalt betreffend nahe gelegene Gebäude und Attraktionen bereitgestellt werden, wie über eine lokale Auflistung oder eine Anwendung wie die Gelben Seiten. Die Resultate können auch in einer Augmented-Reality-Anwendung verwendet werden.
- Obwohl Aspekte der Erfindung hierin mit Bezug auf bestimmte Ausführungsformen beschrieben wurde, versteht sich, dass diese Ausführungsformen lediglich die Grundsätze und Anwendungen der vorliegenden Erfindung darstellen. Es versteht sich daher, dass zahlreiche Modifizierungen an den darstellenden Ausführungsformen vorgenommen werden können und dass andere Anordnungen konzipiert werden können, ohne vom Erfindungsgedanken und Umfang der vorliegenden Erfindung, wie durch die hinzugefügten Ansprüche definiert, abzuweichen.
- INDUSTRIELLE ANWENDBARKEIT
- Die vorliegende Erfindung genießt eine breite industrielle Anwendbarkeit, einschließlich unter anderem für Datenverarbeitungssysteme in Computern.
Claims (10)
- Ein Bildverarbeitungsapparat, umfassend: Ein Front-End-Modul, das so konfiguriert ist, dass es eine Bildanfrage von einem Benutzergerät empfängt, wobei die Bildanfrage ein Bild von Interesse und Standortmetadaten für das Bild von Interesse umfasst und das Front-End-Modul ferner so konfiguriert ist, dass es die Standortmetadaten analysiert, um eine oder mehrere Zellen auszuwählen, die im Vergleich zu dem Bild von Interesse ausgewertet werden, wobei jede Zelle ein oder mehr mit ihr verbundene geolokalisierte Bilder und Indexdaten hat; und Ein Zellenübereinstimmungsmodul, das so konfiguriert ist, dass es das Bild von Interesse mit den Indexdaten der ausgewählten Zellen vergleicht und jegliche Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten ermittelt.
- Bildverarbeitungsapparat nach Anspruch 1, worin das Zellenübereinstimmungsmodul eine Vielzahl von Zellenübereinstimmungsservern umfasst und bestimmte der Zellenübereinstimmungsserver zugewiesen werden, um den Vergleich für entsprechende der ausgewählten Zellen durchzuführen.
- Bildverarbeitungsapparat nach Anspruch 2, worin die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmungen bereitgestellt werden, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt.
- Bildverarbeitungsapparat nach Anspruch 2, ferner ein indexiertes Modul umfassend, das so konfiguriert ist, dass es die Indexdaten einer jeden Zelle speichert.
- Bildverarbeitungsapparat nach Anspruch 4, worin jede Zelle eine damit verbundene eindeutige ID hat und jeder vorgegebene Zellenübereinstimmungsserver auf die Indexdaten der entsprechenden Zelle aus dem indexierten Modul zugreift, wobei er einen Schlüssel verwendet, der die eindeutige ID dieser Zelle darstellt.
- Bildverarbeitungsapparat nach Anspruch 5, worin die eindeutige ID einer jeden Zelle von den Geolokalisierungskoordinaten dieser Zelle abgeleitet wird.
- Bildverarbeitungsapparat nach Anspruch 1, worin die Indexdaten Eigenschaften der geolokalisierten Bilder entsprechen.
- Bildverarbeitungsapparat nach Anspruch 7, worin die Eigenschaften aus dem aus Ecken, Rändern oder Linien, Helligkeitsinformationen und Histogramminformationen bestehenden Satz ausgewählt werden.
- Ein Speicher, auf dem computerlesbare Anweisungen eines Computerprogramms gespeichert sind, wobei die Anweisungen, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass der Prozessor ein Verfahren durchführt, wobei das Verfahren Folgendes umfasst: Empfangen einer Bildanfrage von einem Benutzergerät, wobei die Bildanfrage ein Bild von Interesse und Standortmetadaten für das Bild von Interesse einschließt; Analyse der Standortmetadaten für die Auswahl einer oder mehrerer Zellen, die im Vergleich mit einem Bild von Interesse auszuwerten sind, wobei mit jeder Zelle ein oder mehrere geolokalisierte Bilder und Indexdaten verbunden sind; für jede ausgewählte Zelle, der Vergleich des Bildes von Interesse mit den Indexdaten dieser Zelle; Ermittlung jeglicher Übereinstimmungen aus den geolokalisierten Bildern der ausgewählten Zellen auf der Grundlage der verglichenen Indexdaten; und Bereitstellung der Übereinstimmungen.
- Speicher nach Anspruch 9, worin das Verfahren die Übereinstimmungen zusammen mit einer Zuverlässigkeitsanzeige für die Übereinstimmungen bereitstellt, die die Wahrscheinlichkeit oder Genauigkeit jeder Übereinstimmung angibt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/632,338 | 2009-12-07 | ||
US12/632,338 US8189964B2 (en) | 2009-12-07 | 2009-12-07 | Matching an approximately located query image against a reference image set |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202010018498U1 true DE202010018498U1 (de) | 2017-01-27 |
Family
ID=44082077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202010018498.3U Expired - Lifetime DE202010018498U1 (de) | 2009-12-07 | 2010-12-07 | Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz |
Country Status (6)
Country | Link |
---|---|
US (3) | US8189964B2 (de) |
EP (2) | EP2510495A4 (de) |
AU (1) | AU2010328337B2 (de) |
CA (1) | CA2783014C (de) |
DE (1) | DE202010018498U1 (de) |
WO (1) | WO2011071861A2 (de) |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9310892B2 (en) | 2000-11-06 | 2016-04-12 | Nant Holdings Ip, Llc | Object information derived from object images |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US20100235356A1 (en) * | 2009-03-10 | 2010-09-16 | Microsoft Corporation | Organization of spatial sensor data |
US9087059B2 (en) * | 2009-08-07 | 2015-07-21 | Google Inc. | User interface for presenting search results for multiple regions of a visual query |
US9135277B2 (en) | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
US8121618B2 (en) * | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US8977639B2 (en) * | 2009-12-02 | 2015-03-10 | Google Inc. | Actionable search results for visual queries |
US9405772B2 (en) * | 2009-12-02 | 2016-08-02 | Google Inc. | Actionable search results for street view visual queries |
US20110128288A1 (en) * | 2009-12-02 | 2011-06-02 | David Petrou | Region of Interest Selector for Visual Queries |
US8811742B2 (en) | 2009-12-02 | 2014-08-19 | Google Inc. | Identifying matching canonical documents consistent with visual query structural information |
US8805079B2 (en) | 2009-12-02 | 2014-08-12 | Google Inc. | Identifying matching canonical documents in response to a visual query and in accordance with geographic information |
US9176986B2 (en) | 2009-12-02 | 2015-11-03 | Google Inc. | Generating a combination of a visual query and matching canonical document |
US9183224B2 (en) * | 2009-12-02 | 2015-11-10 | Google Inc. | Identifying matching canonical documents in response to a visual query |
US9852156B2 (en) | 2009-12-03 | 2017-12-26 | Google Inc. | Hybrid use of location sensor data and visual query to return local listings for visual query |
US8189964B2 (en) | 2009-12-07 | 2012-05-29 | Google Inc. | Matching an approximately located query image against a reference image set |
US8774527B1 (en) | 2009-12-07 | 2014-07-08 | Google Inc. | Matching an approximately located query image against a reference image set using cellular base station and wireless access point information |
KR100970121B1 (ko) * | 2009-12-24 | 2010-07-13 | (주)올라웍스 | 상황에 따라 적응적으로 이미지 매칭을 수행하기 위한 방법, 시스템, 및 컴퓨터 판독 가능한 기록 매체 |
WO2011082332A1 (en) * | 2009-12-31 | 2011-07-07 | Digimarc Corporation | Methods and arrangements employing sensor-equipped smart phones |
US8447741B2 (en) * | 2010-01-25 | 2013-05-21 | Sepaton, Inc. | System and method for providing data driven de-duplication services |
KR100985737B1 (ko) * | 2010-02-05 | 2010-10-06 | (주)올라웍스 | 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 |
JP4856262B2 (ja) * | 2010-05-31 | 2012-01-18 | 株式会社東芝 | 動き検出装置及び動き検出方法 |
US9031809B1 (en) * | 2010-07-14 | 2015-05-12 | Sri International | Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion |
KR101699922B1 (ko) * | 2010-08-12 | 2017-01-25 | 삼성전자주식회사 | 하이브리드 사용자 추적 센서를 이용한 디스플레이 시스템 및 방법 |
CN103168294A (zh) * | 2010-10-22 | 2013-06-19 | 瑞典爱立信有限公司 | 图像匹配装置和图像匹配方法 |
US8635556B2 (en) | 2010-11-30 | 2014-01-21 | Alcatel Lucent | Human readable iconic display server |
US8971641B2 (en) * | 2010-12-16 | 2015-03-03 | Microsoft Technology Licensing, Llc | Spatial image index and associated updating functionality |
US8521128B1 (en) | 2011-12-09 | 2013-08-27 | Google Inc. | Method, system, and computer program product for obtaining crowd-sourced location information |
EP2798839A4 (de) * | 2011-12-28 | 2015-08-05 | Intel Corp | Systeme, verfahren und vorrichtung zur bereitstellung von inhalten auf der basis einer bildersammlung |
US20150161619A1 (en) * | 2012-01-05 | 2015-06-11 | Google Inc. | Verifying a business listing based on photographic business listing information obtained through image recognition |
KR101942288B1 (ko) * | 2012-04-23 | 2019-01-25 | 한국전자통신연구원 | 위치 보정 장치 및 방법 |
US9066200B1 (en) * | 2012-05-10 | 2015-06-23 | Longsand Limited | User-generated content in a virtual reality environment |
US20150116482A1 (en) | 2012-05-29 | 2015-04-30 | Abb Research Ltd | Object inspection in an industrial plant |
CN102842275A (zh) * | 2012-08-10 | 2012-12-26 | 鸿富锦精密工业(深圳)有限公司 | 智能路灯及广告投放服务器和系统 |
US9325861B1 (en) | 2012-10-26 | 2016-04-26 | Google Inc. | Method, system, and computer program product for providing a target user interface for capturing panoramic images |
US9270885B2 (en) | 2012-10-26 | 2016-02-23 | Google Inc. | Method, system, and computer program product for gamifying the process of obtaining panoramic images |
US9251433B2 (en) | 2012-12-10 | 2016-02-02 | International Business Machines Corporation | Techniques for spatial semantic attribute matching for location identification |
US9088625B1 (en) | 2012-12-12 | 2015-07-21 | Google Inc. | Obtaining an image for a place of interest |
US9928652B2 (en) | 2013-03-01 | 2018-03-27 | Apple Inc. | Registration between actual mobile device position and environmental model |
US9531722B1 (en) | 2013-10-31 | 2016-12-27 | Google Inc. | Methods for generating an activity stream |
US9542457B1 (en) | 2013-11-07 | 2017-01-10 | Google Inc. | Methods for displaying object history information |
US9614880B1 (en) | 2013-11-12 | 2017-04-04 | Google Inc. | Methods for real-time notifications in an activity stream |
IL229860A0 (en) * | 2013-12-08 | 2014-01-30 | Shop Cloud Ltd | System and method for intrastructural navigation |
US9311639B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods, apparatus and arrangements for device to device communication |
US9509772B1 (en) | 2014-02-13 | 2016-11-29 | Google Inc. | Visualization and control of ongoing ingress actions |
GB2523598A (en) * | 2014-02-28 | 2015-09-02 | Super Local Ltd | Method for determining the position of a client device |
US10410169B2 (en) | 2014-05-30 | 2019-09-10 | Walmart Apollo, Llc | Smart inventory management and database sharding |
US9659079B2 (en) | 2014-05-30 | 2017-05-23 | Wal-Mart Stores, Inc. | Shard determination logic for scalable order and inventory management architecture with a sharded transactional database |
US10346897B2 (en) | 2014-05-30 | 2019-07-09 | Walmart Apollo, Llc | Method and system for smart order management and application level sharding |
US10043208B2 (en) | 2014-05-30 | 2018-08-07 | Walmart Apollo, Llc | Smart order management and database sharding |
US9536199B1 (en) | 2014-06-09 | 2017-01-03 | Google Inc. | Recommendations based on device usage |
US9507791B2 (en) | 2014-06-12 | 2016-11-29 | Google Inc. | Storage system user interface with floating file collection |
US10078781B2 (en) | 2014-06-13 | 2018-09-18 | Google Llc | Automatically organizing images |
WO2016004330A1 (en) | 2014-07-03 | 2016-01-07 | Oim Squared Inc. | Interactive content generation |
US20160171004A1 (en) * | 2014-12-11 | 2016-06-16 | Pitney Bowes Inc. | Method and system for improving the location precision of an object taken in a geo-tagged photo |
US9870420B2 (en) | 2015-01-19 | 2018-01-16 | Google Llc | Classification and storage of documents |
GB2535190A (en) | 2015-02-12 | 2016-08-17 | Nokia Technologies Oy | A method, a system, an apparatus and a computer program product for image-based retrieval |
US9760792B2 (en) | 2015-03-20 | 2017-09-12 | Netra, Inc. | Object detection and classification |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
US20160292507A1 (en) * | 2015-03-30 | 2016-10-06 | Ziad Ghoson | Information Processing System and Method Using Image Recognition |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US9984499B1 (en) | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
JP6593665B2 (ja) * | 2016-02-26 | 2019-10-23 | 日本電気株式会社 | 画像表示システム、端末、方法およびプログラム |
US10353950B2 (en) * | 2016-06-28 | 2019-07-16 | Google Llc | Visual recognition using user tap locations |
KR101882370B1 (ko) * | 2016-09-05 | 2018-07-26 | 네이버랩스 주식회사 | 지역 분할과 파노라마 분할 기법을 이용한 위치기반 관심지점 정보 검색 시스템 및 방법 |
US10163008B2 (en) * | 2016-10-04 | 2018-12-25 | Rovi Guides, Inc. | Systems and methods for recreating a reference image from a media asset |
US10169894B2 (en) * | 2016-10-06 | 2019-01-01 | International Business Machines Corporation | Rebuilding images based on historical image data |
US10074381B1 (en) | 2017-02-20 | 2018-09-11 | Snap Inc. | Augmented reality speech balloon system |
US10387730B1 (en) | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
CN107257562B (zh) * | 2017-06-12 | 2019-11-26 | 中国联合网络通信集团有限公司 | 归属地的确认方法和确认系统 |
KR102107207B1 (ko) * | 2017-09-11 | 2020-05-06 | 주식회사 제주컨버전스 | 이미지 검색 방법, 및 이미지 검색 방법을 실행시키는 프로그램이 기록된 기록 매체 |
CN107895050A (zh) * | 2017-12-07 | 2018-04-10 | 联想(北京)有限公司 | 图片搜索方法及系统 |
US20190361983A1 (en) * | 2018-05-25 | 2019-11-28 | Microsoft Technology Licensing, Llc | Sensor fusion for generating queries |
CA3104532C (en) | 2018-06-27 | 2023-10-17 | Niantic, Inc. | Multi-sync ensemble model for device localization |
CN109325436A (zh) * | 2018-09-17 | 2019-02-12 | 王虹 | 人脸识别系统及服务器 |
JP7205332B2 (ja) * | 2019-03-20 | 2023-01-17 | 株式会社リコー | 診断処理装置、診断システム、診断処理方法、及びプログラム |
US11017233B2 (en) | 2019-03-29 | 2021-05-25 | Snap Inc. | Contextual media filter search |
US11537985B2 (en) * | 2019-09-26 | 2022-12-27 | International Business Machines Corporation | Anonymous inventory tracking system |
WO2021091552A1 (en) * | 2019-11-06 | 2021-05-14 | Google Llc | Use of image sensors to query real world for geo-reference information |
CN112784174A (zh) * | 2019-11-08 | 2021-05-11 | 华为技术有限公司 | 确定位姿的方法、装置和系统 |
CN113220928B (zh) * | 2020-01-21 | 2024-06-11 | 北京达佳互联信息技术有限公司 | 一种图像搜索方法、装置、电子设备及存储介质 |
US11430091B2 (en) | 2020-03-27 | 2022-08-30 | Snap Inc. | Location mapping for large scale augmented-reality |
US10956743B1 (en) | 2020-03-27 | 2021-03-23 | Snap Inc. | Shared augmented reality system |
WO2022010451A1 (en) * | 2020-07-06 | 2022-01-13 | Google Llc | Stable orientation cues for augmented reality (ar) |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5128874A (en) | 1990-01-02 | 1992-07-07 | Honeywell Inc. | Inertial navigation sensor integrated obstacle detection system |
US5579471A (en) * | 1992-11-09 | 1996-11-26 | International Business Machines Corporation | Image query system and method |
US6282489B1 (en) | 1993-05-28 | 2001-08-28 | Mapquest.Com, Inc. | Methods and apparatus for displaying a travel route and generating a list of places of interest located near the travel route |
US5948040A (en) | 1994-06-24 | 1999-09-07 | Delorme Publishing Co. | Travel reservation information and planning system |
JP3743988B2 (ja) * | 1995-12-22 | 2006-02-08 | ソニー株式会社 | 情報検索システムおよび方法、並びに情報端末 |
JPH09330336A (ja) * | 1996-06-11 | 1997-12-22 | Sony Corp | 情報処理装置 |
US6222939B1 (en) * | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
US6400374B2 (en) * | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
US5901245A (en) * | 1997-01-23 | 1999-05-04 | Eastman Kodak Company | Method and system for detection and characterization of open space in digital images |
KR100255758B1 (ko) | 1997-11-21 | 2000-05-01 | 전주범 | 삼각 그리드로 표현된 지형상을 이동하는 물체의 위치가 존재하는 삼각형 탐색방법 |
US6118404A (en) | 1998-01-21 | 2000-09-12 | Navigation Technologies Corporation | Method and system for representation of overlapping features in geographic databases |
US6272231B1 (en) * | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
BR9909611B1 (pt) * | 1998-04-13 | 2012-08-07 | mÉtodo e aparelho para detectar caracterÍsticas faciais em uma sequÊncia de quadros de imagem compreendendo uma imagem de um rosto. | |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
US7050655B2 (en) * | 1998-11-06 | 2006-05-23 | Nevengineering, Inc. | Method for generating an animated three-dimensional video head |
US6714661B2 (en) * | 1998-11-06 | 2004-03-30 | Nevengineering, Inc. | Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image |
US7050624B2 (en) * | 1998-12-04 | 2006-05-23 | Nevengineering, Inc. | System and method for feature location and tracking in multiple dimensions including depth |
JP4155671B2 (ja) | 1999-07-12 | 2008-09-24 | アルパイン株式会社 | 車載用ナビゲーション装置 |
US6466695B1 (en) * | 1999-08-04 | 2002-10-15 | Eyematic Interfaces, Inc. | Procedure for automatic analysis of images and image sequences based on two-dimensional shape primitives |
US6401034B1 (en) | 1999-09-02 | 2002-06-04 | Navigation Technologies Corp. | Method and system for finding intermediate destinations with a navigation system |
US6405123B1 (en) | 1999-12-21 | 2002-06-11 | Televigation, Inc. | Method and system for an efficient operating environment in a real-time navigation system |
US6587782B1 (en) | 2000-03-14 | 2003-07-01 | Navigation Technologies Corp. | Method and system for providing reminders about points of interests while traveling |
KR20040041082A (ko) * | 2000-07-24 | 2004-05-13 | 비브콤 인코포레이티드 | 멀티미디어 북마크와 비디오의 가상 편집을 위한 시스템및 방법 |
US6895126B2 (en) * | 2000-10-06 | 2005-05-17 | Enrico Di Bernardo | System and method for creating, storing, and utilizing composite images of a geographic location |
US7680324B2 (en) * | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US7899243B2 (en) * | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
JP4977291B2 (ja) | 2000-11-17 | 2012-07-18 | 日本電気株式会社 | 情報提供サーバ及び情報提供検索実行プログラムを記録した記録媒体 |
US6421602B1 (en) | 2001-01-03 | 2002-07-16 | Motorola, Inc. | Method of navigation guidance for a distributed communications system having communications nodes |
DE10103922A1 (de) * | 2001-01-30 | 2002-08-01 | Physoptics Opto Electronic Gmb | Interaktives Datensicht- und Bediensystem |
US6917703B1 (en) * | 2001-02-28 | 2005-07-12 | Nevengineering, Inc. | Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network |
US6542814B2 (en) | 2001-03-07 | 2003-04-01 | Horizon Navigation, Inc. | Methods and apparatus for dynamic point of interest display |
US7162507B2 (en) | 2001-03-08 | 2007-01-09 | Conexant, Inc. | Wireless network site survey tool |
US7149625B2 (en) | 2001-05-31 | 2006-12-12 | Mathews Michael B | Method and system for distributed navigation and automated guidance |
US6834115B2 (en) * | 2001-08-13 | 2004-12-21 | Nevengineering, Inc. | Method for optimizing off-line facial feature tracking |
US7082365B2 (en) | 2001-08-16 | 2006-07-25 | Networks In Motion, Inc. | Point of interest spatial rating search method and system |
US20030069690A1 (en) | 2001-10-04 | 2003-04-10 | General Motors Corporation | Method and system for navigation-enhanced directory assistance |
AU2003223090A1 (en) | 2002-04-30 | 2003-11-17 | Telmap Ltd. | Template-based map distribution system |
AU2003253765A1 (en) | 2002-06-27 | 2004-01-19 | Small World Productions, Inc. | System and method for locating and notifying a user of a person, place or thing having attributes matching the user's stated prefernces |
US7155339B2 (en) | 2003-06-13 | 2006-12-26 | Alpine Electronics, Inc. | Display method and apparatus for navigation system for searching POI and arranging listing order of POI |
US6839628B1 (en) | 2003-06-13 | 2005-01-04 | Alpine Electronics, Inc | Display method and apparatus for arranging order of listing points of interest for navigation system |
US7388519B1 (en) | 2003-07-22 | 2008-06-17 | Kreft Keith A | Displaying points of interest with qualitative information |
US6954697B1 (en) | 2003-08-04 | 2005-10-11 | America Online, Inc. | Using a corridor search to identify locations of interest along a route |
US7324896B1 (en) | 2003-08-04 | 2008-01-29 | Aol Llc | Using a corridor search to identify locations of interest along a travel route |
US7353109B2 (en) | 2004-02-05 | 2008-04-01 | Alpine Electronics, Inc. | Display method and apparatus for navigation system for performing cluster search of objects |
US7565139B2 (en) * | 2004-02-20 | 2009-07-21 | Google Inc. | Image-based search engine for mobile phones with camera |
US7751805B2 (en) * | 2004-02-20 | 2010-07-06 | Google Inc. | Mobile image-based information retrieval system |
US8421872B2 (en) * | 2004-02-20 | 2013-04-16 | Google Inc. | Image base inquiry system for search engines for mobile telephones with integrated camera |
US7532899B2 (en) | 2004-04-15 | 2009-05-12 | At&T Mobility Ii Llc | System for providing location-based services in a wireless network, such as locating sets of desired locations |
WO2006023046A1 (en) * | 2004-06-21 | 2006-03-02 | Nevengineering, Inc. | Single image based multi-biometric system and method |
JP2006029885A (ja) | 2004-07-14 | 2006-02-02 | Alpine Electronics Inc | 施設検索システムおよび方法 |
NO323521B1 (no) | 2004-09-10 | 2007-06-04 | Telenor Asa | Lokasjonsbildekommentering pa kameratelefoner |
US8825682B2 (en) * | 2006-07-31 | 2014-09-02 | Ricoh Co., Ltd. | Architecture for mixed media reality retrieval of locations and registration of images |
KR100696801B1 (ko) | 2005-03-04 | 2007-03-19 | 엘지전자 주식회사 | 네비게이션 시스템 및 그 관심위치 검색방법 |
US7519200B2 (en) * | 2005-05-09 | 2009-04-14 | Like.Com | System and method for enabling the use of captured images through recognition |
US7917286B2 (en) * | 2005-12-16 | 2011-03-29 | Google Inc. | Database assisted OCR for street scenes and other images |
US7698062B1 (en) | 2006-01-12 | 2010-04-13 | Sprint Spectrum L.P. | Most convenient point of interest finder apparatus and method |
US7761350B1 (en) | 2006-04-26 | 2010-07-20 | Aol Inc. | Biasing of search result clustering to ensure more effective point of interest (POI) targeting |
US9665597B2 (en) | 2006-12-05 | 2017-05-30 | Qualcomm Incorporated | Method and system for processing images using time and location filters |
US20080268876A1 (en) * | 2007-04-24 | 2008-10-30 | Natasha Gelfand | Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities |
JP4703605B2 (ja) * | 2007-05-31 | 2011-06-15 | アイシン・エィ・ダブリュ株式会社 | 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法 |
US20090083275A1 (en) * | 2007-09-24 | 2009-03-26 | Nokia Corporation | Method, Apparatus and Computer Program Product for Performing a Visual Search Using Grid-Based Feature Organization |
US8131118B1 (en) | 2008-01-31 | 2012-03-06 | Google Inc. | Inferring locations from an image |
US8239130B1 (en) * | 2009-11-12 | 2012-08-07 | Google Inc. | Enhanced identification of interesting points-of-interest |
US8189964B2 (en) | 2009-12-07 | 2012-05-29 | Google Inc. | Matching an approximately located query image against a reference image set |
US8624725B1 (en) | 2011-09-22 | 2014-01-07 | Amazon Technologies, Inc. | Enhanced guidance for electronic devices having multiple tracking modes |
-
2009
- 2009-12-07 US US12/632,338 patent/US8189964B2/en active Active
-
2010
- 2010-12-07 WO PCT/US2010/059207 patent/WO2011071861A2/en active Application Filing
- 2010-12-07 AU AU2010328337A patent/AU2010328337B2/en active Active
- 2010-12-07 DE DE202010018498.3U patent/DE202010018498U1/de not_active Expired - Lifetime
- 2010-12-07 EP EP10836505.7A patent/EP2510495A4/de not_active Ceased
- 2010-12-07 EP EP19175485.2A patent/EP3547157A1/de not_active Withdrawn
- 2010-12-07 CA CA2783014A patent/CA2783014C/en active Active
-
2012
- 2012-01-18 US US13/352,740 patent/US20120114239A1/en not_active Abandoned
-
2013
- 2013-09-26 US US14/037,681 patent/US8768107B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
AU2010328337A1 (en) | 2012-06-28 |
CA2783014A1 (en) | 2011-06-16 |
EP2510495A2 (de) | 2012-10-17 |
US20140029798A1 (en) | 2014-01-30 |
WO2011071861A2 (en) | 2011-06-16 |
CA2783014C (en) | 2016-07-12 |
US8768107B2 (en) | 2014-07-01 |
WO2011071861A8 (en) | 2012-08-09 |
AU2010328337B2 (en) | 2013-09-12 |
US20110135207A1 (en) | 2011-06-09 |
EP2510495A4 (de) | 2016-10-12 |
US8189964B2 (en) | 2012-05-29 |
WO2011071861A3 (en) | 2011-09-22 |
US20120114239A1 (en) | 2012-05-10 |
EP3547157A1 (de) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202010018498U1 (de) | Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz | |
US8798378B1 (en) | Scene classification for place recognition | |
EP3017275B1 (de) | Positionsbestimmungsverfahren für ein vermessungsgerät und ein ebensolches vermessungsgerät | |
DE202014010935U1 (de) | Aktualisierungen von 3D-Modellen mithilfe von Crowd-Sourcing-basiertem Videomaterial | |
DE202014010927U1 (de) | Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden | |
DE202015009198U1 (de) | Auswahl der zeitlich verteilten Panoramabilder für die Anzeige | |
DE202016007816U1 (de) | Das Entdecken von Unternehmen aus Bildern | |
DE112015005191T5 (de) | Ausrichten von Panoramaaufnahmen und Luftaufnahmen | |
DE202011110900U1 (de) | Systeme zum Sammeln und Bereitstellen von Kartenbildern | |
DE112011103221T5 (de) | Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten | |
DE112019002080T5 (de) | Systeme und verfahren zur stellungsbestimmung | |
DE112015006255T5 (de) | Objekterkennungsvorrichtung, Objekterkennungsverfahren, und Programm | |
DE102016214875A1 (de) | Schildbasierte Ortung | |
DE202014010843U1 (de) | Ausrichten von bodenbasierten Bildern mit Luftbildern | |
DE202011110874U1 (de) | System zur Bestimmung von Gebäudenummern | |
DE102012218390A1 (de) | Optimierung der Erkennung von Objekten in Bildern | |
DE112011102043T5 (de) | Objekterfassungsmetadaten | |
DE112016002022T5 (de) | Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung | |
DE202014010966U1 (de) | Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort | |
DE112016006213T5 (de) | System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen | |
DE112016001304T5 (de) | Detektieren des Ortes einer Mobilvorrichtung basierend auf semantischen Indikatoren | |
DE202016006008U1 (de) | Automatische Erkennung von Panoramagesten | |
DE202015009139U1 (de) | Bildmodifikation | |
DE102019120561A1 (de) | System und verfahren zur automatischen relokalisierung und automatischen angleichung vorhandener nichtdigitaler grundrisspläne | |
DE202018100752U1 (de) | Bayesische Methodik für georäumliche Objekt-/Merkmalserkennung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R207 | Utility model specification | ||
R081 | Change of applicant/patentee |
Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US |
|
R082 | Change of representative |
Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE |
|
R081 | Change of applicant/patentee |
Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US Free format text: FORMER OWNER: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUNTAIN VIEW, CALIF., US |
|
R082 | Change of representative |
Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE |
|
R152 | Utility model maintained after payment of third maintenance fee after eight years | ||
R071 | Expiry of right |