DE202014010966U1 - Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort - Google Patents

Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort Download PDF

Info

Publication number
DE202014010966U1
DE202014010966U1 DE202014010966.4U DE202014010966U DE202014010966U1 DE 202014010966 U1 DE202014010966 U1 DE 202014010966U1 DE 202014010966 U DE202014010966 U DE 202014010966U DE 202014010966 U1 DE202014010966 U1 DE 202014010966U1
Authority
DE
Germany
Prior art keywords
image
location
user
images
future time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014010966.4U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202014010966U1 publication Critical patent/DE202014010966U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Remote Sensing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Abstract

Nicht-flüchtiges computerlesbares Medium, das Anweisungen speichert, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, bewirken, dass der eine oder die mehreren Prozessoren ein Verfahren durchführen, wobei das Verfahren Folgendes umfasst: Empfangen mithilfe eines oder mehrerer Prozessoren, einer Anfrage nach Bildern eines Standortes; das Identifizieren – als Reaktion auf die Anfrage – mithilfe eines oder mehrerer Prozessoren einer Bilderfolge, die die unterschiedlichen Bedingungen an dem Standort darstellen, wobei jedem Bild der Bilderfolge Bedingungsinformationen zugeordnet sind, die die in diesem Bild dargestellten Bedingungen definieren; das Bestimmen mithilfe eines oder mehrerer Prozessoren, wann ein Benutzer zu einem zukünftigen Zeitpunkt am Standort sein wird; das Empfangen mithilfe eines oder mehrerer Prozessoren von Umgebungsinformationen, einschließlich Informationen, die Umgebungsbedingungen identifizieren, die für den zukünftigen Zeitpunkt an dem Standort zu erwarten sind; das Klassifizieren mithilfe eines oder mehrerer Prozessoren der Bilderfolge basierend auf den empfangenen Umgebungs- und Bedingungsinformationen für jedes Bild der Bilderfolge; und das Auswählen eines Bildes aus der Bilderfolge basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge zur Anzeige auf einem Clientgerät, wobei das ausgewählte Bild die aktuellen Bedingungen an dem Standort darstellt, die den zu einem zukünftigen Zeitpunkt zu erwartenden Umgebungsbedingungen am nächsten kommen.

Description

  • VERWEIS
  • Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind dabei, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
  • HINTERGRUND
  • Verschiedene Dienste, wie z. B. Google Maps, können Benutzern Aufnahmen von geographischen Standorten auf Straßenebene bereitstellen, die häufig auch als „Straßenansichten” bezeichnet werden. In der Regel kann bei den besagten Diensten ein Clientcomputer Bilder von einem bestimmten Standort auf Straßenebene anfordern und Bilder, wie z. B. digitalisierte Panoramafotografien 360, die daraufhin auf Straßenebene aufgenommen werden, empfangen. Die Bilder werden von verschiedenen Quellen empfangen und können nach Standorten, an denen die Bilder aufgenommen wurden, gruppiert werden. In einigen exemplarischen Ausführungsformen können die besagten Bildern Fotos von echten geographischen Positionen auf Straßenebene einschließen, die es Benutzern ermöglichen, jene Standorte aus der Perspektive einer Person auf Geländehöhe zu sehen.
  • Die von Benutzern ausgeführten Suchanfragen nach Karten und Fotos, die die besagten Dienste verwenden, um Bildaufnahmen auf Straßenebene anzuzeigen, geben oftmals Bilder von einem Standort wieder, die während der für die Aufnahme von Bildern beliebtesten Zeiten und unter perfekten Bedingungen aufgenommen wurden. Wenn sich die Benutzer jedoch auf dem Weg zu einem Zielort befinden oder eine Reise zu einer bestimmten Zeit planen, stimmen die ausgegebenen Bilder zur Ankunft des Benutzers möglicherweise nicht mit dem Aktuellen Aussehen des Standorts überein.
  • KURZE ZUSAMMENFASSUNG
  • Aspekte dieser Offenbarung können vorteilhaft sein, um Methoden zum Suchen nach Bildern eines Standortes bereitzustellen, die die aktuellen Bedingungen an demselben Standort für einen zukünftigen Zeitpunkt, wie z. B. eine zu erwartende Ankunftszeit eines Benutzers, darstellen. Ein Aspekt der vorliegenden Technologie besteht in der Bereitstellung eines Verfahrens. Das Verfahren beinhaltet das Empfangen einer Anfrage nach Bildern eines Standortes. In Reaktion auf die Anfrage kann eine Bilderfolge identifiziert werden, die unterschiedliche Bedingungen am Standort darstellt. Jedem Bild der Bilderfolge sind Bedingungsinformationen zugeordnet, die die in diesem Bild dargestellten Bedingungen definieren. Das Verfahren beinhaltet zudem die Bestimmung eines Zeitpunkts, an dem ein Benutzer am Zielort ankommen wird. Es können Umgebungsinformationen, einschließlich Informationen, die die für den zukünftigen Zeitpunkt an dem Standort zu erwartenden Umgebungsbedingungen identifizieren, empfangen werden.
    Die Bilderfolge wird basierend auf den empfangenen Umgebungs- und Bedingungsinformationen für jedes Bild der Bilderfolge klassifiziert. Ein Bild aus der Bilderfolge kann basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge für die Anzeige auf einem Client-Gerät ausgewählt werden. Das ausgewählte Bild stellt die aktuellen Bedingungen an dem Standort dar, die den zum zukünftigen Zeitpunkt zu erwartenden Umgebungsbedingungen am nächsten kommt.
  • In einer exemplarischen Ausführungsform kann der zukünftige Zeitpunkt auf zumindest entweder: einer vom Benutzer ausgeführten Suchanfrage, einem aktuellen Standort des Benutzers oder dem Suchverlauf des Benutzers basieren. In diesem Zusammenhang enthält der Suchverlauf, wenn der zukünftige Zeitpunkt auf dem Suchverlauf des Benutzers basiert, Informationen, die Elemente betreffen, die sich auf einen bestimmten Zeitraum beziehen, der dem zukünftigen Zeitpunkt entspricht. Die Klassifizierung der Bilderfolge umfasst das Identifizieren visueller Merkmale, die in jeder Bilderfolge von Bildern vorhanden sind. Die in einem als höchst klassifizierten Bild vorhandenen visuellen Merkmale entsprechen den empfangenen Umgebungsinformationen
  • In einer exemplarischen Ausführungsform beinhalten die Umgebungsbedingungsinformationen Informationen, die den Wetterbedingungen an dem Standort für einen Zeitraum darstellen, der dem zukünftigen Zeitpunkt entspricht.
  • In einer exemplarischen Ausführungsform beinhalten die Umgebungsbedingungsinformationen zudem Informationen, die einer Tageszeit an dem Standort für den zukünftigen Zeitpunkt entspricht.
  • In einer exemplarischen Ausführungsform beinhaltet die Umgebungsbedingungsinformationen zudem Informationen, die sich auf ein jahreszeitlich bedingtes Ereignis beziehen, das an einem Standort aufgetreten ist. Das Ereignis trat zu einem Zeitpunkt auf, der dem zukünftigen Zeitpunkt entspricht.
  • Ein weiterer Aspekt der vorliegenden Technologie sieht ein nicht-transitorisches computerlesbares Medium vor, das Befehle beinhaltet, die bei Ausführung durch einen Prozessor veranlassen, dass der Prozessor ein Verfahren ausführt. Das Verfahren beinhaltet des Weiteren das Empfangen einer Anfrage nach Bildern eines Standortes. In Reaktion auf die Anfrage kann eine Bilderfolge identifiziert werden, die unterschiedliche Bedingungen am Standort darstellt. Jedem Bild der Bilderfolge sind Bedingungsinformationen zugeordnet, die die in diesem Bild dargestellten Bedingungen definieren. Das Verfahren beinhaltet die Bestimmung des Zeitpunkts, an dem ein Benutzer zu einem zukünftigen Zeitpunkt am Standort ankommen wird. Es können Umgebungsinformationen, einschließlich Informationen, die die für den zukünftigen Zeitpunkt an dem Standort zu erwartenden Umgebungsbedingungen identifizieren, empfangen werden. Die Bilderfolge wird basierend auf den empfangenen Umgebungs- und Bedingungsinformationen für jedes Bild der Bilderfolge klassifiziert. Ein Bild aus der Bilderfolge kann basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge für die Anzeige auf einem Client-Gerät ausgewählt werden. Das ausgewählte Bild stellt die aktuellen Bedingungen an dem Standort dar, die den zum zukünftigen Zeitpunkt zu erwartenden Umgebungsbedingungen am nächsten kommt.
  • Ein weiterer Aspekt der vorliegenden Technologie sieht ein System vor, das einen Speicher zum Speichern von Bildern und einen mit dem Speicher gekoppelten Prozessor beinhaltet. Der Prozessor kann dafür konfiguriert sein, eine Anfrage nach Bildern eines Standortes zu empfangen. In Reaktion auf die Anfrage kann eine Bilderfolge identifiziert werden, die unterschiedliche Bedingungen am Standort darstellt. Jedem Bild der Bilderfolge sind Bedingungsinformationen zugeordnet, die die in diesem Bild dargestellten Bedingungen definieren. Der Prozessor kann des Weiteren dafür konfiguriert sein, festzustellen, wann ein Benutzer zu einem zukünftigen Zeitpunkt an einem Standort ankommen wird. Es können Umgebungsinformationen, einschließlich Informationen, die die für den zukünftigen Zeitpunkt an dem Standort zu erwartenden Umgebungsbedingungen identifizieren, empfangen werden. Die Bilderfolge wird basierend auf den empfangenen Umgebungs- und Bedingungsinformationen für jedes Bild der Bilderfolge klassifiziert. Ein Bild aus der Bilderfolge kann basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge für die Anzeige auf einem Client-Gerät ausgewählt werden. Das ausgewählte Bild stellt die aktuellen Bedingungen an dem Standort dar, die den zum zukünftigen Zeitpunkt zu erwartenden Umgebungsbedingungen am nächsten kommt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine exemplarische Bilderfolge, einschließlich Bildaufnahmen auf Straßenebene gemäß Aspekten der Offenbarung.
  • 2 ist eine weitere exemplarische Ausführungsform von Bildern, einschließlich einer Straßenebene gemäß Aspekten der Offenbarung.
  • 3 ist eine weitere exemplarische Ausführungsform von Bildern, die Bildaufnahmen auf Straßenebene gemäß Aspekten der Offenbarung beinhalten.
  • 4 ist eine exemplarische Ausführungsform einer klassifizierten Bilderfolge gemäß Aspekten der Offenbarung.
  • 5 ist eine funktionelles Blockdiagramm eines Systems gemäß Aspekten der Offenbarung.
  • 6 ist ein Ablaufdiagramm, das eine exemplarische Ausführungsform eines Verfahrens nach Aspekten der Offenbarung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Aspekte, Merkmale und Vorteile der in diesem Dokument offenbarten Erfindung werden unter Bezugnahme auf die folgende Beschreibung der Ausführungsformen und beigefügten Figuren ersichtlich. Dieselben Referenznummern in unterschiedlichen Zeichnungen können dieselben oder ähnliche Elemente identifizieren. Ferner ist die folgende Beschreibung nicht einschränkend; der Umfang der vorliegenden Technologie wird durch die beigefügten Ansprüche und Äquivalente definiert. Während bestimmte Prozesse in Übereinstimmung mit exemplarischen Ausführungsformen in den Figuren als in linearer Weise vorkommend dargestellt sind, ist dies nicht erforderlich, sofern nicht ausdrücklich hierin angegeben. Verschiedene Prozesse können in einer anderen Reihenfolge oder gleichzeitig durchgeführt werden. Schritte können auch hinzugefügt oder weggelassen werden, sofern nicht anders angegeben.
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf die Klassifizierung identifizierter Bilder eines Standortes basierend auf den aktuellen Bedingungen an demselben Standort. Wenn beispielsweise ein Benutzer eine Anfrage einleitet, um Bilder, wie z. B. Bildaufnahmen eines geographischen Standortes auf Straßenebene zu betrachten, können die hierin offenbarten Methoden automatisch echte Bildaufnahmen auf Straßenebene auswählen, die für die zu einem zukünftigen Zeitpunkt am Standort zu erwartenden aktuellen Bedingungen (z. B. Wetter, Tageszeit, Urlaubsdekor, usw.) visuell am relevantesten sind. Während Aspekte der Offenbarung in Verbindung mit Bildaufnahmen auf Straßenebene beschrieben werden, können dieselben Methoden auch bei anderen Arten von Bildern, wie z. B. Luftbildern oder Innenraumbildern, verwendet werden.
  • Gemäß Aspekten kann in Reaktion auf eine Benutzeranfrage eine Bilderfolge für einen Standort identifiziert werden, wobei die Bilder Bildern entsprechen, die unterschiedliche Bedingungen am Standort darstellen. Jedem Bild der Bilderfolge sind Bedingungsinformationen zugeordnet, die in diesem Bild dargestellt sind. Es kann bestimmt werden, wann ein Benutzer zu einem zukünftigen Zeitpunkt am Standort ankommen wird. Zum Beispiel können die aktuellen GPS-Koordinaten eines aktuell zu einem Standort reisenden Benutzers dazu verwendet werden, die zu erwartende Ankunftszeit des Benutzers am Standort zu bestimmen. Um zu bestimmen, welche Bilder der Bilderfolge dem Benutzer angezeigt werden, werden die Bilder von einem Prozessor basierend auf den empfangenen und jedem Bild zugeordneten Umgebungs- und Bedingungsinformationen klassifiziert. Die empfangenen Umgebungsinformationen können Information beinhalten, die die für den zukünftigen Zeitpunkt aktuellen Umgebungsbedingungen an dem Standort anzeigen. Ein Bild aus der Bilderfolge kann basierend auf dessen Klassifizierung relativ zu anderen Bildern der Bilderfolge ausgewählt werden. Das ausgewählte Bild kann aktuelle Bedingungen an dem Standort darstellen, die den zu erwartenden Umgebungsbedingungen am nächsten kommen.
  • 1 ist ein exemplarische Bilderfolge 100, einschließlich einer Reihe von Bildaufnahmen 102104 eines Standortes auf Straßenebene. Die Bilderfolge 100 kann Objekte, wie z. B. eine Straße, ein Gebäude, verschiedene Gelände und unterschiedliche Umgebungsbedingungen, an dem Standort darstellen. In der Regel werden die besagten Bilder an den Standorten beispielsweise von Kameras oder Bilderfassungsgeräten im Allgemeinen parallel zum Boden ausgerichtet aufgenommen.
  • Die Bilderfolge 100 kann in Reaktion auf die Anfrage eines Benutzers nach einer Bilderfassung eines Standortes identifiziert werden. So kann beispielsweise ein Benutzer Bilder von einem Standort anfordern, den der Benutzer zu einem zukünftigen Zeitpunkt besuchen möchte. Die Suchanfrage oder Nachfrage nach Bildern des Standortes kann relevante Informationen zur Identifizierung des Standortes beinhalten. So kann beispielsweise die Anfrage des Benutzers Informationen beinhalten, die einen bestimmten Standort (z. B. „Vermont Mountain Resort”), einen Längen-/Breitengrad, eine Adresse oder andere Kenndaten angeben, die verwendet werden können, um die Position zu bestimmen, für die der Benutzer Bildaufnahmen auf Straßenebene sehen möchte. In einer exemplarischen Ausführungsform kann der Benutzer die Kenndaten in einen Browser auf dem Clientgerät 109 eingeben. Daraufhin kann ein mit dem Clientgerät 109 in Verbindung stehender Server, ein oder mehrere Bilder identifizieren, die ebenfalls den Kenndaten zugeordnet sind, und diese Bilder an das Clientgerät 109 senden.
  • Das Clientgerät 109 kann die Bilder empfangen und dem Benutzer anzeigen. So kann beispielsweise eine Bildaufnahme auf Straßenebene einem Benutzer auf einem Display des Clientgeräts 109 zusammen mit Bedienelementen zum Heranzoomen des Bildes, sowie Bedienelementen zum Ändern der Ausrichtung der Ansicht, angezeigt werden (was das Abrufen mehrerer Bildaufnahmen auf Straßenebene erfordern kann). Zum Beispiel können die hierin offenbarten Methoden in Verbindung mit einem Internetbrowser, wie z. B. Google Chrome (nicht dargestellt), zum Anzeigen von Bildaufnahmen auf Straßenebene, sowie anderen Informationen, implementiert werden. Darüber hinaus können weitere Bedienelemente, wie beispielsweise Schwenksteuerelemente in Form von Pfeilen, die entlang der Straße angeordnet sind, enthalten sein. Die besagten Pfeile können von einem Benutzer (durch Klicken oder Ziehen entlang der Straßenlinie) ausgewählt werden, um den Blickwinkel die Straße hoch in Richtung Straße runter zu verändern.
  • Obwohl mehr als ein Bild für einen Standort identifiziert werden kann, sind bestimmte Benutzer ggf. am meisten daran interessiert, ein Bild zu sehen, das die Bedingungen an dem Standort für eine Zeit darstellt, die einer zu erwartenden Ankunftszeit nahekommt. So kann beispielsweise sich der Benutzer auf dem Weg zu einem Standort 107 befinden, sobald dieser eine Anfrage nach Bildern desselben Standortes sendet. Wie in dem Beispiel aus 1 dargestellt, kann die Bilderfolge 100, die in Reaktion auf die Anfrage des Benutzers identifiziert wurde, Bilder, wie z. B. Bildaufnahmen auf Straßenebene 102 und 104 enthalten, die den Standort 107 unter verschiedenen Bedingungen (z. B. tagsüber und nachts) darstellen können.
  • Die zu erwartende Ankunftszeit des Benutzers an einem Standort kann beispielsweise basierend auf der aktuellen georteten Position des Benutzers abgeschätzt werden. So kann beispielsweise das Clientgerät 109 des Benutzers eine Positionsbestimmungskomponente, wie z. B. einen GPS-Empfänger, zur Bestimmung einer Position des Geräts enthalten. Basierend auf der aktuellen Position des Geräts kann angenähert berechnet werden, wie weit der Benutzer von dem gewünschten Standort entfernt ist. Eine Ankunftszeit des Benutzers an dem Standort kann wiederum basierend auf der bekannten Position des Benutzers und der vom Benutzer vorgegebenen Geschwindigkeit abgeschätzt werden. In einigen Aspekten kann die Reisegeschwindigkeit des Benutzers, beispielsweise anhand des GPS-Signals, berechnet werden.
  • Ein bestimmter Benutzer fährt jedoch ggf. mit Fahrzeug 105 an den Standort 107 und kommt ggf. zu einer bestimmten Tageszeit, wie z. B. um 12:00 Uhr Mitternacht, an. In diesem Fall kann ein Nachtbild 104 des Standortes 107 ausgewählt werden, dass dem Benutzer in einem Browser angezeigt wird, da es am ehesten der Tageszeit (z. B. den aktuellen Umgebungsbedingungen) entspricht, die zum zukünftigen Zeitpunkt des Eintreffens des Benutzers zu erwarten sind. Die Tageszeit an einem Standort kann beispielsweise bestimmt werden, indem eine Breiten-/Längengradkoordinate der angeforderten Position verwendet wird, um eine Zeitzone an dem besagten Standort zu bestimmen. Die Zeitzone kann anschließend zusammen mit einer internen Uhr des Clientgeräts 109 verwendet werden, um eine zu erwartende lokale Ankunftszeit des Benutzers an dem Standort zu berechnen.
  • Andere Arten von aktuellen Bedingungen können ebenfalls verwendet werden, um Bilder auszuwählen und bereitzustellen. Zum Beispiel können das Wetter, sowie andere Arten von Bedingungen für einen Standort, auf der Grundlage verfügbarer Informationen, wie z. B. den aktuellen Wetterbedingungen, Wettervorhersagen und historischen Informationen über den Standort, bestimmt werden. Diese Informationen können dann, wie oben beschrieben, verwendet werden, um Bilder auszuwählen.
  • 2 ist eine exemplarische Ausführungsform für die besagten Bedingungen. In dieser exemplarischen Ausführungsform beinhaltet eine Bilderfolge 200 Bildaufnahmen auf Straßenebene 202208, die unterschiedliche Wetterbedingungen an einem Standort (z. B. Regen, Sonnenschein, Schnee, teilweise bewölkt) darstellen. So kann beispielsweise es sich bei einer möglichen Informationsquelle bezüglich der aktuellen Wetterbedingungen an einem Standort um einen Wetterdienst handeln, der aktuelle Wetterbedingungen, sowie eine Wettervorhersage an dem besagten Standort über einen bestimmten Zeitraum bereitstellen kann. Zum Beispiel kann der Wetterdienst in Reaktion auf das Empfangen einer Standortkennzahl, wie z. B. eines gewünschten Reiseziels des Benutzers, der mit Fahrzeug 105 fährt, Informationen über Wetterbedingungen an dem gewünschten Reiseziel bereitstellen.
  • In diesem Fall kann das Bild, das den Wetterbedingungen, die zum Zeitpunkt der Ankunft des Benutzers zu erwarten sind, am ehesten entspricht, auf dem Clientgerät 109 in Reaktion auf die Anfrage des Benutzers nach Bildern des Standortes 107 angezeigt werden. Wenn zum Beispiel der Wetterdienst Informationen liefert, die darauf hindeuten, dass es an dem vom Benutzer gewünschten Reiseziel regnen könnte, kann das Bild 204, das den Standort im Regen darstellt, zur Anzeige für den Benutzer ausgewählt werden.
  • Des Weiteren können andere Informationen bezüglich der Bedingungen an einem Standort eine aktuelle Tageszeit, Feiertagsereignisse oder jahreszeitabhängige Bedingungen beinhalten, die bei der Ankunft des Benutzers zu erwarten sind. Diesbezüglich gibt es viele Indikatoren, die verwendet werden können, um abzuschätzen, wann ein Benutzer an einem Standort ankommen wird. So kann beispielsweise die Suchanfrage des Benutzers Signale enthalten, die angeben, welche jahreszeitabhängigen Bedingungen die aktuellen Zustände widerspiegeln, die an dem Standort, an dem der Benutzer ankommt, zu erwarten sind, darunter auch Informationen, die einen bestimmten Zeitraum anzeigen, an dem der Benutzer vorhat, an seinem Reiseziel einzutreffen.
  • Wie in der exemplarischen Ausführungsform aus 3 dargestellt, kann eine Bilderfolge 300 Bildaufnahmen auf Straßenebene 302308 beinhalten, die einen Standort 107 unter verschiedenen jahreszeitabhängigen Bedingungen, also z. B. im Frühling, Sommer, Herbst und Winter, darstellen. Beispielsweise möchten ein Benutzer, der zu einem zukünftigen Zeitpunkt eine Reise zum Standort 107 plant, die Bilder desselben Standortes ggf. im Voraus sehen. In dieser exemplarischen Ausführungsform kann die Anfrage auf die Plane des Benutzers für einen bevorstehenden Skiausflug hindeuten, indem dieselbe Informationen für „Vermont Ski Resort” usw. enthält, wodurch anzeigt wird, dass der Benutzer Bilder des Standortes sehen möchte, die den Winterbedingungen für das Reiseziel entsprechen.
  • In einigen Aspekten kann der Navigationsverlauf eines Benutzers zudem Signale enthalten, die einen bestimmten Zeitraum anzeigen, an dem der Benutzer vorhat, an dem Standort einzutreffen. So kann beispielsweise der Navigationsverlauf des Benutzers darauf hindeuten, dass sich der Benutzer Flug- oder Hotelbuchungen für den Standort und für ein bestimmtes Datum oder vor Kurzem erworbene Artikel für die Reise, wie z. B. Skier oder Skischuhe, angesehen hat, die in der Regel während bestimmter Monate verwendet werden.
    Der Benutzer kann eine Wegbeschreibung zum Standort gesucht, einem Bekannten per E-Mail gesendet oder eine Reihe anderer Browseraktivitäten durchgeführt haben, die als ein Indikator verwendet werden können, um einen bestimmten Zeitraum zu bestimmen, an dem der Benutzer erwartungsgemäß an einem Reiseziel ankommt.
  • Für Situationen, in denen der hierin beschriebene Gegenstand Informationen über Benutzer sammelt oder ggf. benutzerbezogene Informationen verwendet, kann den Benutzern eine Gelegenheit geboten werden, einzustellen, ob Programme oder Funktionen Benutzerinformationen (z. B. Informationen über ein soziales Netzwerk des Benutzers, soziale Aktionen oder Aktivitäten, Beruf, Vorlieben oder einen aktuellen Standort des Benutzers) sammeln, oder einzustellen, ob bzw. wie Informationen empfangen werden, die für den Benutzer von Interesse sein könnten. Darüber hinaus können gewisse Daten auf eine oder mehrere Wege behandelt werden, bevor sie gespeichert oder verwendet werden, sodass Informationen zur Identifizierung von Personen entfernt werden. Beispiel kann eine Identität des Benutzers so behandelt werden, dass für den Benutzer keine persönlichen Informationen ermittelt bzw. ein aktueller oder im Verlauf erscheinender Standort des Benutzers verallgemeinert werden kann, während Standortinformationen (z. B. Stadt, Postleitzahl- oder Bundesstaat) empfangen werden, so dass eine spezifische Position eines Benutzers nicht bestimmt werden kann. Einem Benutzer kann zudem die Gelegenheit geboten werden, zu entscheiden, ob und wie die besagten Informationen (wie z. B. Standortverlauf und Suchergebnisse) verwendet und auf einem Gerät des Benutzers und von Servern, mit denen das Gerät kommuniziert, gespeichert werden.
  • Vor dem Auswählen eines Bildes, das dem Benutzer angezeigt werden soll, können Bilder, die auf der Basis der oben beschriebenen Bedingungen identifiziert werden, klassifiziert werden. 4 ist eine exemplarische Ausführungsform einer klassifizierten Bilderfolge 400, einschließlich der Bildaufnahmen auf Straßenebene 402408. Wie oben erwähnt, kann die Bilderfolge 402408 in Reaktion auf die Benutzeranfrage nach Bildern eines Standortes 107 identifiziert werden. Die Bilder können basierend darauf, wie genau sie mit den aktuellen Bedingungen übereinstimmen, zur Anzeige für einen Benutzer auf dem Clientgerät 409 klassifiziert werden. So können beispielsweise die Bedingungen, die in einem als höchst klassifizierten Bild dargestellt sind, den aktuellen Bedingungen entsprechen, die an dem Standort zu erwarten sind.
  • Wie in der exemplarischen Ausführungsform aus 4 hervorgeht, wird das den Standort 107 darstellende Bild während der Wintermonate höher klassifiziert als andere Bilder 404, 406 und 408, die für diesen Standort identifiziert wurden. In dieser exemplarischen Ausführungsform stellt das Winterbild 402 ggf. Bedingungen dar, die mit dem geplanten Skiausflug des Benutzers zu dem besagten Standort während des Winters oder einfach mit der Tageszeit oder den aktuellen Wetterbedingungen zum Zeitpunkt der Ankunft des Benutzers besser zusammenpassen.
  • Um eine Klassifizierung der identifizierten Bilderfolge festzulegen, kann eine Reihe von Indikatoren verwendet werden, um die in den Bildern dargestellten aktuellen Bedingungen zu bestimmen. In einem Aspekt können ein Datum und eine Uhrzeit mit den Bildern assoziiert sein, die auf eine in den Bildern dargestellte Tageszeit, wie z. B. die Uhrzeit, zu der das Bild aufgenommen wurde, hindeuten. In einigen Aspekten kann eine Bildanalyse an der Bilderfolge durchgeführt werden, um Merkmale zu extrahieren, die verwendet werden können, um verschiedene in den Bildern dargestellte Umgebungsbeleuchtungen oder Wetterbedingungen, zu identifizieren. So kann beispielsweise ein vorwiegend dunkles Bild im Gegensatz zu einer Tagesszene eine Nachtszene eines Standortes darstellen. In anderen exemplarischen Ausführungsformen können bestimmte Objekte in einem Bild als schneebedeckt identifiziert werden, woran erkannt wird, dass es sich bei den Bildern anstatt um Aufnahmen an einem hellen, sonnigen Sommertag um Aufnahmen in den Wintermonaten handelt.
  • Die in den Bildern dargestellten aktuellen Bedingungen können auch basierend auf Informationen, die in dem Bild gespeichert sind (z. B. Metadaten), identifiziert werden. Zum Beispiel können die Informationen, die einem Bild zugeordnet sind, darauf hindeuten, dass ein bestimmter Weißabgleich bei der Aufnahme des Bildes mit einer Kamera verwendet wurde. Dies kann darauf hindeuten, dass das Bild nachts an einem Standort aufgenommen wurde und somit einer nächtlichen Darstellung des Standortes entspricht. Andere Metadaten können bestimmte Kameraeinstellungen enthalten, die zur Aufnahme des Bildes verwendet werden und die im Bild dargestellten Umgebungsbedingungen, wie z. B. eine Kameraeinstellung für den bewölkten oder den Tagesmodus, anzeigen.
  • In anderen Situationen kann ein Benutzer die Bilder mit Informationen taggen oder anderweitig kennzeichnen, die jahreszeitabhängige Ereignisse und Festlichkeiten oder andere bedeutende Bedingungsinformationen, die in den Bildern dargestellt sind, identifizieren. So können beispielsweise die Bilder basierend auf identifizierten Weihnachtsbeleuchtungen und anderen entsprechenden Dekorationen auf Objekten innerhalb des Bildes gekennzeichnet werden, wodurch anzeigt wird, dass die Bilder ein bestimmten Feiertagsereignis bzw. Zeitfenster betreffen.
  • 5 ist ein Blockdiagramm eines exemplarischen Systems 500, das einen Server 501 beinhaltet, der mit einem Netzwerk 595 und einem oder mehreren Clientgeräten gekoppelt ist (in 5 wird zur Verdeutlichung nur Clientgerät 510 dargestellt), das in der Lage ist, über das Netzwerk 595 mit dem Server 501 zu kommunizieren. Der Server 501 kann einen Prozessor 502, einen Speicher 504 und andere Komponenten beinhalten, die in der Regel in Universalcomputern enthalten sind.
  • Der Speicher 504 des Servers 501 kann Informationen speichern, die für den Prozessor 502 zugänglich sind, z. B. Anweisungen 506 und Daten 508, die von dem Prozessor 502 ausführt werden können. Bei dem Speicher 504 kann es sich um eine Art von Speicher handeln, die in der Lage ist, Informationen zu speichern, die für den Prozessor 502 zugänglich sind, darunter auch nicht transitorische computerlesbare Medien oder andere Medien, die Daten speichern, die mit Hilfe eines elektronischen Geräts, wie z. B. einer Festplatte, einer Speicherkarte, einem Festwertspeicher („ROM”), einem Direktzugriffsspeicher („RAM”), einer Digital Versatile Disc („DVD”) oder anderer optischer Platten, sowie anderer schreibgeschützter Speichermedien, eingelesen werden können. Der hierin offenbarte Gegenstand kann verschiedene Kombinationen des Vorangehenden beinhalten, wobei verschiedene Teile der Anweisungen und Daten auf verschiedenen Arten von Medien gespeichert sind.
  • Auch wenn 5 den Prozessor 502 und Speicher 504 funktionsgerecht als im selben Block befindlich veranschaulicht, können der Prozessor 502 und der Speicher 504 eigentlich mehrere Prozessoren und Speicher beinhalten, die in demselben physischen Gehäuse untergebracht sein können oder nicht. Beispielsweise können einige der Anweisungen und Daten auf entfernbare CD-ROM und andere in einem Nur-Lese-Computer-Chip gespeichert werden. Einige oder alle der Anweisungen und Daten können an einem Standort gespeichert werden, der zwar physisch vom Prozessor entfernt, jedoch trotzdem vom Prozessor 502 zugänglich ist. Desgleichen kann der Prozessor 504 eine Reihe von Prozessoren umfassen, die parallel oder nicht parallel betrieben werden können.
  • Die Daten 508 können von dem Prozessor 502 gemäß den Anweisungen 506 abgerufen, gespeichert oder bearbeitet werden. Obwohl die hierin offenbarten Systeme und Verfahren durch keine bestimmte Datenstruktur eingeschränkt sind, können die Daten 508 beispielsweise in Computerregistern, in einer relationalen Datenbank als Tabelle mit einer Vielzahl verschiedener Felder und Datensätze, XML-Dokumenten oder Einfachdateien gespeichert werden. Die Daten 508 können zudem in einem computerlesbaren Format, unter anderem z. B. als binäre Werte, ASCII oder Unicode formatiert sein. So können beispielsweise die Daten 508 des Weiteren als Bitmaps gespeichert werden, die aus Pixeln bestehen, die in komprimierten oder unkomprimierten oder verschiedenen Bildformaten (z. B. JPEG), vektorbasierten Formaten (z. B. SVG) oder Computeranweisungen zum Zeichnen von Grafiken gespeichert sind. Darüber hinaus können die Daten 508 Informationen umfassen, die ausreichend sind, um die relevanten Informationen, wie z. B. Ziffern, beschreibende Texte, urheberrechtlich geschützte Codes, Zeiger, Verweise auf in anderen Speichern (einschließlich anderer Netzwerkpfade) gespeicherte Daten oder von einer Funktion verwendete Informationen zu identifizieren und zu berechnen.
  • Ein typisches System kann eine große Anzahl von verbundenen Computern beinhalten, wobei sich jeder der verschiedenen Computer an einem anderen Knoten des Netzwerks 595 befindet. Das Netzwerk 595 und die dazwischen liegenden Knoten können verschiedene Konfigurationen und Protokolle, wie z. B. Internet, World Wide Web, Intranet, virtuelle private Netzwerke, Großraumnetzwerke, lokale Netzwerke, private Netzwerke, die die von einem oder mehreren Unternehmen urheberrechtlich geschützten Kommunikationsprotokolle verwenden, Ethernet, WLAN und HTTP, sowie verschiedene Kombinationen derselben, umfassen. Eine solche Kommunikation kann durch ein Gerät ermöglicht werden, das in er Lage ist, Daten zu und von anderen Computern, wie z. B. Modems (z. B. Einwahl-, Kabel- oder Faseroptikmodems) und drahtlosen Schnittstellen, zu übertragen.
  • Jedes Clientgerät 510, wie z. B. das Clientgerät 109 aus den 12 und das Clientgerät 309 aus den 34, kann ähnlich wie der Server 501, mit einem Prozessor 512, Speicher 514, Anweisungen 516 und allen internen Komponenten konfiguriert werden, die man normalerweise in einem Personalcomputer vorfindet. Nur als Beispiel kann das Clientgerät 510 eine zentrale Verarbeitungseinheit (CPU), ein Anzeigegerät 511 (zum Beispiel einen Monitor mit einem Bildschirm, einen Projektor, einen Touchscreen, einen kleinen LCD-Bildschirm, einen Fernseher oder ein anderes Gerät, wie z. B. ein elektrisches Gerät zum Anzeigen der von den Prozessoren 512 verarbeiteten Informationen), ein CD-ROM, eine Festplatte, Benutzereingabegeräte 517, wie z. B. eine Tastatur, eine Maus, einen Touchscreen oder ein Mikrofon, einen Lautsprecher, ein Modem und/oder ein Netzwerkschnittstellengerät (Telefon, Kabel oder Sonstiges) und all jene Komponenten beinhalten, die benötigt werden, um die besagten Elemente aneinander anzuschließen.
  • Bei dem Clientgerät 510 kann es sich um ein Computergerät handeln. Das Clientgerät 510 kann zum Beispiel ein Laptop-Computer, ein Netbook, ein Desktop-Computer und ein tragbarer Personalcomputer, wie z. B. ein zur drahtlosen Kommunikation fähiger PDA, ein Tablet-PC oder eine andere Art von Computergerät sein, das in der Lage ist, Informationen über ein Netzwerk, wie dem Internet, zu erhalten. Obwohl Aspekte der Offenbarung im Allgemeinen ein einziges Clientgerät 510 betreffen, kann das Clientgerät 510 als mehrere Geräte mit sowohl tragbaren als auch nicht tragbaren Komponenten (wie z. B. Software, die auf einem Rack-montierten Server mit einer Schnittstelle zum Sammeln von Standortinformationen ausgeführt wird) implementiert werden.
  • Obwohl das Clientgerät 510 ggf. einen Personalcomputer voller Größe beinhaltet, kann der Gegenstand der vorliegenden Offenbarung auch in Verbindung mit Mobilgeräten verwendet werden, die in der Lage sind, Daten drahtlos auszutauschen. Das Clientgerät 510 kann zum Beispiel ein drahtloses Mobilgerät, wie z. B. ein Smartphone oder ein Internet-fähiges Mobiltelefon, sein. In beiderlei Hinsicht kann der Benutzer Informationen unter Verwendung einer kleinen Tastatur, eines Tastenfelds, eines Touchscreens oder eines anderen Mittels zur Benutzereingabe eingeben. In verschiedenen Aspekten können die hierin beschriebenen Clientgeräte und Computer ein Gerät umfassen, das in der Lage ist, Anweisungen zu verarbeiten und Daten an und von Personen und anderen Geräten, einschließlich Universalcomputern, Netzwerkcomputern ohne lokale Speicherkapazität, Spielekonsolen und Set-Top-Boxen für Fernsehgeräte, zu übertragen.
  • Das Clientgerät 510 kann Komponenten, wie z. B. Schaltkreise, beinhalten, die die geographische Position des Geräts bestimmen. So kann beispielsweise das Clientgerät 510 eine GPS-Positionsbestimmungskomponente oder einen GPS-Empfänger 518 umfassen. So kann beispielsweise die Positionsbestimmungskomponente 518 Software beinhalten, um die Position des Geräts anhand anderer auf dem Clientgerät 510 erhaltener Signale, wie z. B. Signalen, die, sofern es sich bei dem Mobilgerät um ein Mobiltelefon handelt, an einer Mobiltelefonantenne von einem oder mehreren Mobilfunktürmen empfangen wurden, zu bestimmen. In dieser Hinsicht kann das Bereitstellen von Standortidentifikationsdaten automatisch auf Basis der von einer derartigen Komponente erhaltenen Informationen erfolgen.
  • Bei den Anweisungen 516 des Clientgeräts 610 kann es sich um eine Reihe von Anweisungen handeln, die direkt (z. B. Maschinencode) oder indirekt (z. B. Skripts) vom Prozessor ausgeführt werden. In diesem Zusammenhang können die Begriffe „Anweisungen”, „Schritte” und „Programme” hierin synonym verwendet werden. Die Anweisungen 516 können im Zielcode-Format zur direkten Verarbeitung durch den Prozessor oder in jeglicher sonstigen Computersprache, einschließlich Skripts oder Sammlungen unabhängiger Quellcode-Module, die auf Anfrage interpretiert oder im Voraus kompiliert werden, gespeichert sein. Funktionen, Verfahren und Routinen der Anweisungen werden unten ausführlicher erklärt.
  • Die Anweisungen 516 können einen Browser zum Anzeigen von Netzwerkinhalt und einen Navigationsverlauf eines Benutzers des Clientgeräts 510 beinhalten. Der Browser sorgt durch Senden und Empfangen von Daten über das Netzwerk 595 für die Anzeige von Netzwerkinhalten, wie z. B. Bildaufnahmen auf Straßenebene, einer Reihe von Suchergebnissen oder anderen Arten von Netzwerkinhalten, auf dem Clientgerät 510 eines Benutzers. Der Netzwerkinhalt kann in Reaktion auf eine Suchanfrage empfangen werden, die einen Suchtext mit einer Angabe eines Standortes enthält. Die zurückgesendeten Suchergebnisse werden mit Standorten innerhalb der geographischen Region in Verbindung gebracht. Die Suchergebnisse können zum Beispiel eine Anzahl von Bildern auf Straßenniveau von verschiedenen Gebäuden oder Landschaften innerhalb der geographischen Region sein.
  • Der Speicher 514 kann den Navigationsverlauf eines Benutzers speichern. Der Navigationsverlauf des Benutzers kann Daten darstellen, die mithilfe eines oder mehrerer Browser-Add-ons, Skripts oder Symbolleisten gesammelt werden. In einigen Aspekten kann der Navigationsverlauf auf einem dezentralen Server, wie z. B. dem Server 501, gespeichert und dem Clientgerät 510 bereitgestellt werden. Wie oben beschrieben, kann den Benutzern die Gelegenheit geboten werden, einzustellen, ob Programme oder Funktionen des hierin offenbarten Gegenstands Benutzerinformationen sammeln oder einzustellen, ob bzw. wie Informationen empfangen werden können, die für den Benutzer interessant sein könnten.
    Bestimmte Daten können auch auf eine oder mehrere Weisen behandelt werden, bevor sie gespeichert oder verwendet werden, so dass keine personenbezogenen Informationen für den Benutzer bestimmt werden können.
  • Die Bilddatenbank 507 des Servers 501 kann Bilddaten speichern, die Bildaufnahmen auf Straßenebene 509 darstellen, die an das Clientgerät 510 übermittelt werden können. Die Bildaufnahmen auf Straßenebene können als Bilddaten gespeichert werden, die ein Bild, ein Datum, eine visuelle Orientierung des Bildes, sowie andere die Bilder betreffende Daten, wie z. B. eine Belichtungseinstellung, die auf einem Gerät zur Aufnahme der Bilder verwendet wird, beinhalten. Die Bildaufnahmen auf Straßenebene 509 können Bilder von Objekten an Standorten, wie z. B. Gebäuden, Straßen und Geländen, beinhalten. Die Bildaufnahmen auf Straßenebene können mit Kameras an den Standorten aus einer Perspektive von einigen Metern über dem Boden aufgenommen werden. In vielen Aspekten kann ein typisches Bild auf Straßenebene so viele geographische Objekte (Straßenlaternen, Berge, Bäume, Wasserkörper, Fahrzeuge, Menschen, usw.) in einer so hohen Auflösung beinhalten, wie die Kamera in der Lage ist, aufzunehmen.
  • Die Bilddatenbank 507 kann Informationen beinhalten, die für einen Standort der Bildaufnahmen auf Straßenebene 509 relevant sind. Zum Beispiel können die Bildaufnahmen auf Straßenebene 509 Breitengrad-/Längengrad-Koordinaten beinhalten oder zugeordnet sein, die Standorte darstellen, an denen die Bilder aufgenommen wurden. Obwohl der hierin offenbarte Gegenstand nicht auf ein bestimmtes Positionsreferenzsystem beschränkt ist, können Breitengrad-/Längengradpositionen bei der Bezugnahme auf Standorte der Bildaufnahmen auf Straßenebene 509 des Systems 500 verwendet werden.
  • Das System 500 kann des Weiteren eine Quelle beinhalten, die Informationen über die aktuellen Bedingungen an Standorten bereitstellt, die in den Bildaufnahmen auf Straßenebene 509 dargestellt sind. Die Quelle kann auf dem Server 501 gespeichert sein oder externe Quellen, wie z. B. Websites beinhalten. Wie oben erwähnt, ist der Wetterdienst eine mögliche externe Informationsquelle. So kann beispielsweise der Wetterdienst in Reaktion auf das Empfangen eines Standortes über das Netzwerk 595 Informationen über das aktuelle und das vorhergesagte Wetter am Standort bereitstellen.
  • In einem Aspekt kann das System 500 eine Suchanfrage für Bildaufnahmen auf Straßenebene 509 als Reaktion auf eine Benutzeranfrage durchführen. So kann beispielsweise der Benutzer mithilfe des Clientgeräts 510 eine Suchanfrage nach Bildaufnahmen auf Straßenebene eingeben. In Reaktion auf die Suchanfrage kann eine Reihe von Bildaufnahmen auf Straßenebene 509, die einem Standort zugeordnet sind, ausgegeben werden. Der Benutzer kann die besagten Bildaufnahmen auf Straßenebene 509 beispielsweise auf dem Display 511 des Clientgeräts 510 betrachten. Obwohl die vom Server 501 ausgegebenen Bilder den Standort genau darstellen können, kann das Interesse des Benutzers darauf ausgerichtet sein, die Bilder des Standortes zu betrachten, die die aktuellen Umgebungsbedingungen zu einem bestimmten Zeitraum, wie z. B. dem Zeitpunkt, darstellen, an dem der Benutzer am Standort eintreffen wird.
  • Die Suchanfrage kann Signale beinhalten, die angeben, welche Bilder für das Interesse des Benutzers relevant sind. So kann beispielsweise eine Benutzeranfrage nach „Vermont-Skigebieten” darauf hindeuten, dass sich der Benutzer nicht nur Bilder des Urlaubsortes, sondern auch spezifische Bilder wünscht, die den Standort während der Wintermonate zeigen. Zu anderen Arten von Signalen, die auf das Interesse eines Benutzers an spezifischen Bildern eines Standortes hindeuten, gehören ggf. Informationen über den Benutzer, wie z. B. dessen aktuelle Entfernung von einem Standort oder dessen Navigationsverlauf. Wenn beispielsweise aus einem Navigationsverlauf eines Benutzers hervorgeht, dass der Benutzer nach Artikeln für kühles Wetter, wie z. B. Skischuhen, gesucht hat, kann dies darauf hindeuten, dass der Benutzer ein spezifisches Bild des in den Wintermonaten dargestellten Reiseziels wünscht. Das System 500 kann dafür konfiguriert werden, jene ausgewählten Bilder zu klassifizieren, die für das Interesse des Benutzers visuell am relevantesten sind.
  • Um die Bildklassifizierungsabläufe des Systems 500 zu erleichtern, können die Anweisungen 506 des Servers 501 zudem ein Bildklassifizierungsmodul 503 enthalten. Das Bildklassifizierungsmodul 503 kann in Verbindung mit dem Server 210 betrieben werden, von wo es die oben beschriebenen Signale empfangen kann, die angeben, welche Bilder für das Interesse eines Benutzers visuell relevant sind. Die Funktionalität dieses Moduls kann in einer kleineren oder größeren Anzahl von Modulen als in 5 dargestellt existieren, wobei sich die besagten Module in einem oder mehreren Computergeräten befinden, die geographisch verteilt sein können.
  • Das Bildklassifizierungsmodul 503 kann eine Bildanalyse der Bildaufnahmen auf Straßenebene 509 durchführen, um eine Prioritätsreihenfolge zum Anzeigen der Bilder für einen Benutzer festzulegen. So kann beispielsweise die Bildanalyse verschiedene Beleuchtungs- oder Wetterbedingungen identifizieren, die in den Bildaufnahmen auf Straßenebene 509 dargestellt sind. In diesem Zusammenhang kann ein als höchst klassifiziertes Bild die aktuellen Bedingungen widerspiegeln, die an dem Standort in dem spezifischen Zeitraum, wie z. B. dem Zeitpunkt, an dem der Benutzer an dem Standort eintreffen wird, zu erwarten sind.
  • In einigen Aspekten kann das Bildklassifizierungsmodul 503 die in den Bildern dargestellten Bedingungen basierend auf den mit dem Bild gespeicherten oder von einem Benutzer oder Systemadministrator identifizierten Informationen klassifizieren. So kann beispielsweise das System 500 die Bilder an einen Systemadministrator senden, der die Benutzer dazu auffordern kann, manuell eine Kennzeichnung einzugeben, die die in den Bildern dargestellten Umgebungsbedingungen identifiziert, bevor sie in der Bilddatenbank 507 gespeichert werden. Bei der Auswahl der Bilder, die einem Benutzer angezeigt werden sollen, kann das System 500 ein Bild aus der Bilderfolge auswählen, wobei die identifizierten Umgebungsbedingungen, die in dem Bild dargestellt sind, den aktuellen Umweltinformationen entsprechen, die in Bezug auf den Standort empfangen wurden.
  • 6 ist ein Ablaufdiagramm 600, das eine exemplarische Ausführungsform für einige der oben beschriebenen Aspekte darstellt. In Stufe 610 kann eine Anfrage nach Bildern eines Standortes empfangen werden. So kann beispielsweise ein Server eine Anfrage nach einer echten Bildaufnahme eines Standortes auf Straßenebene von einem Clientgerät, wie z. B. dem Clientgerät 510 aus 5, empfangen. Der Benutzer kann eine Suchanfrage z. B. über einen Browser auf einem Display des Clientgeräts eingeben. Die Abfrage des Benutzers kann Informationen beinhalten, die reale Koordinaten des Standortes, wie z. B. eine Längen-/Breitengrad, eine Adresse oder andere Kenndaten angeben, die verwendet werden können, um den Standort zu bestimmen, für den der Benutzer Bildaufnahmen auf Straßenebene sehen möchte.
  • In Stufe 620 kann in Reaktion auf die Anfrage des Benutzers eine Bilderfolge identifiziert werden, die dem Standort zugeordnet ist. So können beispielsweise die besagten Bilder verschiedene Umgebungsbedingungen an dem Standort darstellen. Die unterschiedlichen Umgebungsbedingungen, die jedem Bild zugeordnet sind, können als Bedingungsinformationen dargestellt werden, die beispielsweise innerhalb des Bildes selbst, als Metadaten mit jedem Bild oder als benutzerdefiniertes Kennzeichen/Tag identifiziert werden können. Die Bilder werden in einer Datenbank gespeichert, die mit einem Server verbunden ist und an dem Standort über einen bestimmten Zeitraum hinweg erfasst.
  • In Stufe 630 kann der Zeitraum, an dem sich ein Benutzer zu einem zukünftigen Zeitpunkt am Standort befinden wird, wie z. B. die Ankunftszeit des Benutzers am Standort, bestimmt werden. Zum Beispiel kann eine Reihe von Indikatoren verwendet werden, um zu bestimmen, wann ein Benutzer am Standort sein wird. Ein solcher Indikator für einen zu dem Standort reisenden Benutzer kann unter anderem die aktuelle GPS-Position desselben Benutzers sein. So kann beispielsweise aus den besagten GPS-Daten die zu erwartende Ankunftszeit des Benutzers an dem Standort anhand der Reisegeschwindigkeit des Benutzers berechnet werden.
  • Zu anderen derartigen Indikatoren können unter anderem eine Suchanfrage oder der Internet-Browserverlauf des Benutzers gehören. So kann beispielsweise die Suchanfrage eines Benutzers Informationen enthalten, die einen bestimmten Zeitraum anzeigt, an dem der Benutzer vorhat, an dem Standort anzukommen, wie z. B. einen Indikator für die Pläne des Benutzers für einen bevorstehenden Skiausflug. Der Internet-Browserverlauf des Benutzers kann zudem bestimmte erworbene Artikel (z. B. Skiliftkarten), Reisebuchungen oder Mitteilungen in Bezug auf ein bestimmtes Datum oder einen bestimmten Zeitraum anzeigen, an dem der Benutzer vorhat, am Standort einzutreffen.
  • In Stufe 640 können Informationen, die Umgebungsbedingungen an dem Standort identifizieren, empfangen werden. Die Umgebungsbedingungen beziehen sich auf Bedingungen am Standort für den zukünftigen Zeitpunkt, bei dem es sich um eine Zeit handeln kann, zu der der Benutzer am Standort ankommt. So können beispielsweise die identifizierten Umgebungsbedingungen aktuelle Umgebungsbedingungen, wie z. B. Wetterbedingungen an einem Standort, sowie eine Wettervorhersage an diesem Standort, über einen bestimmten Zeitraum beinhalten. Andere identifizierte Umweltbedingungen können Informationen in Bezug auf jahreszeitlich bedingte Feiertagsereignisse beinhalten, die an dem Standort oder zu einer aktuellen Tageszeit auftreten. Diese Informationen können von verschiedenen Quellen in Reaktion auf jene Quellen, die eine Standortskennung empfangen, wie z. B. den identifizierten Standort aus Stufe 610, empfangen werden.
  • In Stufe 650 kann die Bilderfolge basierend auf den empfangenen Umgebungsinformationen und des zukünftigen Zeitpunkts klassifiziert werden. Die Klassifizierung kann ein oder mehrere Bilder identifizieren, die unterschiedliche Umgebungsbedingungen am Standort darstellen. Die Klassifizierung kann darauf basieren, wie genau die Bilder mit der aktuellen Umgebungsbedingung übereinstimmen, die zum zukünftigen Zeitpunkt zu erwarten ist, wie z. B. die Ankunftszeit eines Benutzers an dem in Stufe 630 identifizierten Standort.
  • Um eine Klassifizierungsreihenfolge für die identifizierten Bilder festzulegen, werden eine Reihe von Indikatoren verwendet, um die in den Bildern dargestellten Bedingungen zu bestimmen. So können beispielsweise den Bildern ein Datum und eine Uhrzeit zugeordnet sein, die eine in den Bildern dargestellte Tageszeit angeben. In einigen Aspekten kann eine Bildanalyse an der Bilderfolge durchgeführt werden, um Merkmale zu extrahieren, die verwendet werden können, um verschiedene in den Bildern dargestellte Umgebungsbeleuchtungen oder Wetterbedingungen, zu identifizieren. Zum Beispiel kann unter Verwendung der Bildanalyse ein Bildmerkmal in den Bildern identifiziert werden, das sich auf bestimmte Umgebungsklimabedingungen (z. B. Schnee auf einem Objekt) bezieht. Die in den Bildern dargestellten Umgebungsbedingungen können auch basierend auf den mit dem Bild gespeicherten Informationen oder von einem Benutzer festgelegt werden.
  • In Stufe 660 kann ein Bild basierend auf dessen Klassifizierung relativ zu anderen Bildern ausgewählt werden. So kann beispielsweise ein als höchst klassifiziertes Bild ausgewählt werden, das aktuelle Umgebungsbedingungen an dem Standort darstellt, die den aktuellen Umgebungsbedingungen am nächsten kommen, die in Stufe 640 empfangen wurden. Das ausgewählte Bild kann einem Benutzer auf einem Clientgerät, wie z. B. auf dem Clientgerät 510 aus 5, angezeigt werden.
  • Da diese und andere Varianten und Kombinationen der oben beschriebenen Merkmale genutzt werden können, ohne von der durch die Ansprüche definierten Offenbarung abzuweichen, sollte die vorstehende Beschreibung der Ausführungsformen anstatt als Einschränkung der durch die Ansprüche definierten Offenbarung als Veranschaulichung betrachtet werden. Es versteht sich außerdem, dass die Bereitstellung von exemplarischen Ausführungsformen der Offenbarung (sowie von Klauseln mit der Bezeichnung „wie”, „z. B.”, „einschließlich” und ähnliches) nicht als Einschränkung der Offenbarung auf die spezifischen exemplarischen Ausführungsformen interpretiert werden sollten, vielmehr dienen die exemplarischen Ausführungsformen lediglich zur Veranschaulichung einiger der vielen möglichen Ausführungsformen.

Claims (22)

  1. Nicht-flüchtiges computerlesbares Medium, das Anweisungen speichert, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, bewirken, dass der eine oder die mehreren Prozessoren ein Verfahren durchführen, wobei das Verfahren Folgendes umfasst: Empfangen mithilfe eines oder mehrerer Prozessoren, einer Anfrage nach Bildern eines Standortes; das Identifizieren – als Reaktion auf die Anfrage – mithilfe eines oder mehrerer Prozessoren einer Bilderfolge, die die unterschiedlichen Bedingungen an dem Standort darstellen, wobei jedem Bild der Bilderfolge Bedingungsinformationen zugeordnet sind, die die in diesem Bild dargestellten Bedingungen definieren; das Bestimmen mithilfe eines oder mehrerer Prozessoren, wann ein Benutzer zu einem zukünftigen Zeitpunkt am Standort sein wird; das Empfangen mithilfe eines oder mehrerer Prozessoren von Umgebungsinformationen, einschließlich Informationen, die Umgebungsbedingungen identifizieren, die für den zukünftigen Zeitpunkt an dem Standort zu erwarten sind; das Klassifizieren mithilfe eines oder mehrerer Prozessoren der Bilderfolge basierend auf den empfangenen Umgebungs- und Bedingungsinformationen für jedes Bild der Bilderfolge; und das Auswählen eines Bildes aus der Bilderfolge basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge zur Anzeige auf einem Clientgerät, wobei das ausgewählte Bild die aktuellen Bedingungen an dem Standort darstellt, die den zu einem zukünftigen Zeitpunkt zu erwartenden Umgebungsbedingungen am nächsten kommen.
  2. Nicht-flüchtiges computerlesbares Medium nach Anspruch 1, worin der zukünftige Zeitpunkt auf mindestens entweder einer durch den Benutzer ausgeführten Suchanfrage, einer aktuellen Position des Benutzers oder auf dem Suchverlauf des Benutzers basiert.
  3. Nicht-flüchtiges computerlesbares Medium nach Anspruch 2, worin der zukünftige Zeitpunkt auf dem Suchverlauf des Benutzers basiert, wobei der Suchverlauf Informationen beinhaltet, die Elemente betreffen, die sich auf einen bestimmten Zeitraum beziehen, der dem zukünftigen Zeitpunkt entspricht.
  4. Nicht-flüchtiges computerlesbares Medium nach Anspruch 2, worin die Umgebungsbedingungsinformationen Informationen beinhalten, die die Wetterbedingungen an dem Standort für einen Zeitraum darstellen, der dem zukünftigen Zeitpunkt entspricht.
  5. Nicht-flüchtiges computerlesbares Medium nach Anspruch 2, worin die Umgebungsbedingungsinformationen Informationen beinhalten, die einer Tageszeit an dem Standort für den zukünftigen Zeitpunkt entsprechen.
  6. Nicht-flüchtiges computerlesbares Medium nach Anspruch 2, worin das Klassifizieren der Bilderfolge das Identifizieren visueller Merkmale umfasst, die in jedem Bild der Bilderfolge vorhanden sind, wobei die visuellen Merkmale in einem als höchst klassifizierten Bild entsprechend den empfangenen Umgebungsinformationen angeordnet sind.
  7. System, umfassend: einen Speicher zum Speichern von Bildern; und einen oder mehrere mit dem Speicher in Verbindung stehende Prozessoren, wobei der eine oder die mehreren Prozessoren dafür konfiguriert sind: das Empfangen einer Anfrage nach Bildern eines Standortes; in Reaktion auf die Anfrage, die Identifizierung einer Bilderfolge, die verschiedene Bedingungen an dem Standort darstellt, wobei jedem Bild der Bilderfolge Bedingungsinformationen zugeordnet sind, die die in diesem Bild dargestellten Bedingungen definieren; das Bestimmen, wann ein Benutzer zu einem zukünftigen Zeitpunkt am Standort sein wird; das Empfangen von Umgebungsinformationen, einschließlich Informationen, die Umgebungsbedingungen identifizieren, die für den zukünftigen Zeitpunkt an dem Standort zu erwarten sind; das Klassifizieren der Bilderfolge basierend auf den empfangenen Umgebungs- und Bedingungsinformationen für jedes Bild der Bilderfolge; und das Auswählen eines Bildes aus der Bilderfolge basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge zur Anzeige auf einem Clientgerät, wobei das ausgewählte Bild die aktuellen Bedingungen an dem Standort darstellt, die den Umgebungsbedingungen am nächsten kommen, die zu dem zukünftigen Zeitpunkt zu erwarten sind.
  8. System nach Anspruch 7, worin der zukünftige Zeitpunkt auf mindestens entweder: einer vom Benutzer ausgeführten Suchanfrage, einem aktuellen Standort des Benutzers oder dem Suchverlauf des Benutzers basiert.
  9. System nach Anspruch 8, worin der zukünftige Zeitpunkt auf dem Suchverlauf des Benutzers basiert und der Suchverlauf Informationen beinhaltet, die Elemente betreffen, die sich auf einen bestimmten Zeitraum beziehen, der dem zukünftigen Zeitpunkt entspricht.
  10. System nach Anspruch 7, worin die Umgebungsbedingungsinformationen Informationen beinhaltet, die die Wetterbedingungen an dem Standort für einen Zeitraum darstellt, der dem zukünftigen Zeitpunkt entspricht.
  11. System nach Anspruch 7, worin die Umgebungsbedingungsinformationen des Weiteren Informationen beinhalten, die einer Tageszeit an dem Standort für den zukünftigen Zeitpunkt entsprechen.
  12. System nach Anspruch 7, worin die Umgebungsbedingungsinformationen des Weiteren Informationen beinhalten, die sich auf ein jahreszeitlich bedingtes Ereignis beziehen, das an einem Standort aufgetreten ist, wobei das Ereignis zu einem Zeitpunkt auftritt, der dem zukünftigen Zeitpunkt entspricht.
  13. System nach Anspruch 7, worin zur Klassifizierung der Bilderfolge der Prozessor des Weiteren dafür konfiguriert ist, visuelle Merkmale zu identifizieren, die in jedem Bild der Bilderfolge vorhanden sind, wobei die visuellen Merkmale in einem als höchst klassifizierten Bild entsprechend den empfangenen Umgebungsinformationen angeordnet sind.
  14. System, umfassend: einen Speicher zum Speichern von Bildern; und mit dem Speicher gekoppelter Prozessor, wobei der Prozessor dafür konfiguriert ist, ein Verfahren durchzuführen, welches das Folgende umfasst: das Empfangen einer Anfrage nach Bildern eines Standortes; in Reaktion auf die Anfrage die Identifizierung einer Bilderfolge, die verschiedene Bedingungen an dem Standort darstellt, wobei jedem Bild der Bilderfolge Bedingungsinformationen zugeordnet sind, die die in diesem Bild dargestellten Bedingungen definieren; das Bestimmen, wann ein Benutzer zu einem zukünftigen Zeitpunkt am Standort sein wird; das Empfangen von Umgebungsinformationen, einschließlich Informationen, die Umgebungsbedingungen identifizieren, die für den zukünftigen Zeitpunkt an dem Standort zu erwarten sind; das Klassifizieren der Bilderfolge mithilfe eines Prozessors basierend auf den empfangenen Umgebungs- und Zustandsinformationen für jedes Bild der Bilderfolge; und das Auswählen eines Bildes aus der Bilderfolge basierend auf der Klassifizierung des ausgewählten Bildes relativ zu anderen Bildern der Bilderfolge zur Anzeige auf einem Clientgerät, wobei das ausgewählte Bild die aktuellen Bedingungen an dem Standort darstellt, die den zu einem zukünftigen Zeitpunkt zu erwartenden Umgebungsbedingungen am nächsten kommen.
  15. System nach Anspruch 14, worin der zukünftige Zeitpunkt auf mindestens entweder: einer vom Benutzer ausgeführten Suchanfrage, einem aktuellen Standort des Benutzers oder dem Suchverlauf des Nutzers basiert.
  16. System nach Anspruch 14, worin der zukünftige Zeitpunkt auf dem Suchverlauf des Benutzers basiert, wobei der Suchverlauf Informationen beinhaltet, die Elemente betreffen, die sich auf einen bestimmten Zeitraum beziehen, der dem zukünftigen Zeitpunkt entspricht.
  17. System nach irgendeinem der Ansprüche 14 bis 16, worin die Umgebungsbedingungsinformationen Informationen beinhalten, die die Wetterbedingungen an dem Standort für einen Zeitraum darstellen, der dem zukünftigen Zeitpunkt entspricht.
  18. System nach irgendeinem der Ansprüche 14 bis 17, worin die Umgebungsbedingungsinformationen Informationen beinhalten, die einer Tageszeit an dem Standort für den zukünftigen Zeitpunkt entsprechen.
  19. System nach irgendeinem der Ansprüche 14 bis 18, worin die Umgebungsbedingungsinformationen des Weiteren Informationen beinhalten, die sich auf ein jahreszeitlich bedingtes Ereignis beziehen, das an einem Standort aufgetreten ist, wobei das Ereignis zu einem Zeitpunkt auftritt, der dem zukünftigen Zeitpunkt entspricht.
  20. System nach irgendeinem der Ansprüche 14 bis 19, worin die Klassifizierung der Bilderfolge das Identifizieren visueller Merkmale umfasst, die in jedem Bild der Bilderfolge vorhanden sind, wobei die visuellen Merkmale in einem als höchst klassifizierten Bild entsprechend den empfangenen Umgebungsinformationen angeordnet sind.
  21. System nach irgendeinem der Ansprüche 14 bis 20, mit einem Positionsbestimmungssystem zur Bereitstellung von aktuellen Standortdaten, worin der Prozessor dafür konfiguriert ist, die Ankunft des Benutzers am Standort zu dem zukünftigen Zeitpunkt in Abhängigkeit der aktuellen Standortdaten abzuschätzen.
  22. System nach irgendeinem der Ansprüche 14 bis 21, das eine Quelle von Umgebungsdaten beinhaltet, die dafür konfiguriert sind, empfangen zu werden, um die Umgebungsbedingungen an dem Standort zum zukünftigen Zeitpunkt zu identifizieren.
DE202014010966.4U 2013-04-25 2014-04-16 Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort Expired - Lifetime DE202014010966U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/870,419 US9672223B2 (en) 2013-04-25 2013-04-25 Geo photo searching based on current conditions at a location
US13/870,419 2013-04-25

Publications (1)

Publication Number Publication Date
DE202014010966U1 true DE202014010966U1 (de) 2017-02-06

Family

ID=50884485

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014010966.4U Expired - Lifetime DE202014010966U1 (de) 2013-04-25 2014-04-16 Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort

Country Status (4)

Country Link
US (1) US9672223B2 (de)
EP (1) EP2989564A1 (de)
DE (1) DE202014010966U1 (de)
WO (1) WO2014176096A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331733B2 (en) * 2013-04-25 2019-06-25 Google Llc System and method for presenting condition-specific geographic imagery
US9245183B2 (en) * 2014-06-26 2016-01-26 International Business Machines Corporation Geographical area condition determination
US10664855B2 (en) 2014-11-26 2020-05-26 Airbnb, Inc. Demand prediction for time-expiring inventory
US9811785B1 (en) * 2015-05-26 2017-11-07 Airbnb, Inc. Graphical user interface for displaying tips to hosts providing time expiring listings in a reservation system
US20170068827A1 (en) 2015-09-04 2017-03-09 Swim.IT Inc. Live privacy policy method and apparatus
US10528909B2 (en) 2016-04-20 2020-01-07 Airbnb, Inc. Regression-tree compressed feature vector machine for time-expiring inventory utilization prediction
CN106354868A (zh) * 2016-09-13 2017-01-25 乐视控股(北京)有限公司 一种拍照处理方法及装置
US10943288B2 (en) * 2017-03-30 2021-03-09 International Business Machines Corporation Cognitive article reception
EP3506207A1 (de) * 2017-12-28 2019-07-03 Centre National d'Etudes Spatiales Dynamische strassenansicht mit sichtbildverbesserung
CN111008259B (zh) * 2019-12-06 2020-08-11 中国水利水电科学研究院 一种流域降雨相似性搜索方法

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6504571B1 (en) 1998-05-18 2003-01-07 International Business Machines Corporation System and methods for querying digital image archives using recorded parameters
US6977679B2 (en) * 2001-04-03 2005-12-20 Hewlett-Packard Development Company, L.P. Camera meta-data for content categorization
US8457346B2 (en) 2001-04-24 2013-06-04 Digimarc Corporation Digital watermarking image signals on-chip
WO2002099465A1 (en) * 2001-06-04 2002-12-12 Massachusetts Institute Of Technology Video system for monitoring and reporting weather conditions
US8150617B2 (en) * 2004-10-25 2012-04-03 A9.Com, Inc. System and method for displaying location-specific images on a mobile device
JP2008527542A (ja) * 2005-01-06 2008-07-24 シュルマン,アラン ナビゲーション及びインスペクションシステム
US20060224583A1 (en) * 2005-03-31 2006-10-05 Google, Inc. Systems and methods for analyzing a user's web history
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US20070150188A1 (en) 2005-05-27 2007-06-28 Outland Research, Llc First-person video-based travel planning system
US7925995B2 (en) * 2005-06-30 2011-04-12 Microsoft Corporation Integration of location logs, GPS signals, and spatial resources for identifying user activities, goals, and context
US8842197B2 (en) * 2005-11-30 2014-09-23 Scenera Mobile Technologies, Llc Automatic generation of metadata for a digital image based on ambient conditions
US7617246B2 (en) * 2006-02-21 2009-11-10 Geopeg, Inc. System and method for geo-coding user generated content
US7813870B2 (en) * 2006-03-03 2010-10-12 Inrix, Inc. Dynamic time series prediction of future traffic conditions
WO2007124456A2 (en) 2006-04-20 2007-11-01 10Best, Inc. Ststem and method for providing travel-related products and services
US7872593B1 (en) * 2006-04-28 2011-01-18 At&T Intellectual Property Ii, L.P. System and method for collecting image data
US20080005068A1 (en) 2006-06-28 2008-01-03 Microsoft Corporation Context-based search, retrieval, and awareness
JP4886421B2 (ja) 2006-08-09 2012-02-29 株式会社日立製作所 ナビゲーション装置、および、その表示方法
US8594702B2 (en) * 2006-11-06 2013-11-26 Yahoo! Inc. Context server for associating information based on context
US20080147730A1 (en) * 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
US7752188B2 (en) 2007-02-16 2010-07-06 Sony Ericsson Mobile Communications Ab Weather information in a calendar
US20080222132A1 (en) * 2007-03-07 2008-09-11 Jiangyi Pan Personalized shopping recommendation based on search units
US20090012955A1 (en) * 2007-07-03 2009-01-08 John Chu Method and system for continuous, dynamic, adaptive recommendation based on a continuously evolving personal region of interest
US7720844B2 (en) * 2007-07-03 2010-05-18 Vulcan, Inc. Method and system for continuous, dynamic, adaptive searching based on a continuously evolving personal region of interest
US9612126B2 (en) * 2007-12-03 2017-04-04 Nokia Technologies Oy Visual travel guide
US8321431B2 (en) 2008-08-28 2012-11-27 Frogzog, Llc Iterative and interactive context based searching
US9032320B2 (en) 2008-09-08 2015-05-12 Disney Enterprises, Inc. Time and location based GUI for accessing media
US20100131499A1 (en) * 2008-11-24 2010-05-27 Van Leuken Reinier H Clustering Image Search Results Through Folding
US8391615B2 (en) * 2008-12-02 2013-03-05 Intel Corporation Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device
WO2010085186A1 (en) * 2009-01-21 2010-07-29 Telefonaktiebolaget L M Ericsson (Publ) Generation of annotation tags based on multimodal metadata and structured semantic descriptors
US20100217525A1 (en) * 2009-02-25 2010-08-26 King Simon P System and Method for Delivering Sponsored Landmark and Location Labels
JP4553072B1 (ja) 2009-03-31 2010-09-29 コニカミノルタホールディングス株式会社 画像統合装置および画像統合方法
US20100287178A1 (en) * 2009-05-08 2010-11-11 Google Inc. Refining location estimates and reverse geocoding based on a user profile
US20100306249A1 (en) * 2009-05-27 2010-12-02 James Hill Social network systems and methods
US9767209B2 (en) * 2009-05-28 2017-09-19 Apple Inc. Search filtering based on expected future time and location
US8275649B2 (en) * 2009-09-18 2012-09-25 Microsoft Corporation Mining life pattern based on location history
US8719198B2 (en) * 2010-05-04 2014-05-06 Microsoft Corporation Collaborative location and activity recommendations
US8954425B2 (en) * 2010-06-08 2015-02-10 Microsoft Corporation Snippet extraction and ranking
US8639803B2 (en) * 2010-09-01 2014-01-28 Telefonaktiebolaget L M Ericsson (Publ) Systems and method for predicting the future location of an entity
US8866847B2 (en) * 2010-09-14 2014-10-21 International Business Machines Corporation Providing augmented reality information
JP5549515B2 (ja) 2010-10-05 2014-07-16 カシオ計算機株式会社 撮像装置及び方法、並びにプログラム
US8958822B2 (en) * 2010-10-25 2015-02-17 Alohar Mobile Inc. Determining points of interest of a mobile user
US20120316902A1 (en) * 2011-05-17 2012-12-13 Amit Kumar User interface for real time view of web site activity
KR101864892B1 (ko) * 2011-05-31 2018-06-05 삼성전자주식회사 휴대단말기에서 사용자의 검색패턴 제공 장치 및 방법
US8694456B2 (en) * 2011-08-19 2014-04-08 Bank Of America Corporation Predicting future travel based on a user's historical financial institution transaction data and providing offers based on the predicted future travel
US20130053054A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Using predictive technology to intelligently choose communication
KR20130037031A (ko) * 2011-10-05 2013-04-15 삼성전자주식회사 다차원 및 다계층의 컨텍스트 구조체를 이용하여 도메인에 대한 사용자 선호도를 분석하는 장치 및 방법
US9279693B2 (en) * 2012-02-17 2016-03-08 Blackberry Limited Navigation system and method for determining a route based on sun position and weather
US8972318B2 (en) * 2012-05-31 2015-03-03 Qualcomm Incorporated Predicting user behavior using feedback on previously run predictive searches
US8996305B2 (en) * 2012-06-07 2015-03-31 Yahoo! Inc. System and method for discovering photograph hotspots
US9009093B1 (en) * 2012-10-04 2015-04-14 Amazon Technologies, Inc. Deal scheduling based on user location predictions
US10242412B2 (en) * 2012-11-20 2019-03-26 Facebook, Inc. Ambient-location-push notification
US9677886B2 (en) * 2013-02-10 2017-06-13 Qualcomm Incorporated Method and apparatus for navigation based on media density along possible routes
US10467553B2 (en) * 2013-03-13 2019-11-05 Airbnb, Inc. Automated determination of booking availability for user sourced accommodations
US20150310601A1 (en) * 2014-03-07 2015-10-29 Digimarc Corporation Methods and arrangements for identifying objects

Also Published As

Publication number Publication date
US20140324843A1 (en) 2014-10-30
US9672223B2 (en) 2017-06-06
WO2014176096A1 (en) 2014-10-30
EP2989564A1 (de) 2016-03-02

Similar Documents

Publication Publication Date Title
DE202014010966U1 (de) Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort
DE102009049849B4 (de) Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
DE102012218390B4 (de) Optimierung der Erkennung von Objekten in Bildern
DE202014010935U1 (de) Aktualisierungen von 3D-Modellen mithilfe von Crowd-Sourcing-basiertem Videomaterial
DE202011110900U1 (de) Systeme zum Sammeln und Bereitstellen von Kartenbildern
DE202014010887U1 (de) Das Navigieren durch zeit- und raumumspannende geolokalisierte Bilder
DE202010018512U1 (de) System zur Darstellung von Bildern auf Grundlage der Umgebungsbedingungen
DE202012013463U1 (de) Das Erzeugen und Beobachten von Benachrichtigungen für einen geographischen Bereich
Brabyn et al. Using viewsheds, GIS, and a landscape classification to tag landscape photographs
DE102019131700A1 (de) Verfahren und einrichtung für verbesserte ortsentscheidungen auf grundlage der umgebung
DE102004033158A1 (de) System und Verfahren zum Anwenden von Inferenzinformationen an Metadaten einer digitalen Kamera, um einen digitalen Bildinhalt zu identifizieren
DE202013012435U1 (de) Maßgeschneiderte Kennzeichnung einer Karte auf Basis des Inhalts
DE202016007838U1 (de) Bereichsmodellierung mittels der geographischen Photobeschriftungsanalyse
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE112017006487T5 (de) Verfahren und vorrichtung zum erzeugen eines suchmusters für einen ereignisort
EP3410405A1 (de) Verfahren zur darstellung von virtueller information in einer ansicht einer realen umgebung
DE202011110877U1 (de) Ansichtsabhängige Methoden um das Interesse eines Benutzers an ein Merkmal in einer 3-D-Anwendung zu ermitteln
CN103593450B (zh) 建立街景空间数据库的系统和方法
US20140368507A1 (en) Heat maps for 3d maps
DE202011110874U1 (de) System zur Bestimmung von Gebäudenummern
CN105472553A (zh) 基于移动终端的植物识别方法和系统
DE202012013436U1 (de) System zur bereitstellung von informationen basierend auf der strassenadresse
DE102019131701A1 (de) Verfahren und einrichtung für verbesserte ortsentscheidungen auf grundlage der umgebung
DE112016001304T5 (de) Detektieren des Ortes einer Mobilvorrichtung basierend auf semantischen Indikatoren
Caccetta et al. Monitoring land surface and cover in urban and peri-urban environments using digital aerial photography

Legal Events

Date Code Title Description
R150 Utility model maintained after payment of first maintenance fee after three years
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R151 Utility model maintained after payment of second maintenance fee after six years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017300000

Ipc: G06F0016500000

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right