DE202015009181U1 - Überblendung zwischen Straßenansicht und Erdansicht - Google Patents

Überblendung zwischen Straßenansicht und Erdansicht Download PDF

Info

Publication number
DE202015009181U1
DE202015009181U1 DE202015009181.4U DE202015009181U DE202015009181U1 DE 202015009181 U1 DE202015009181 U1 DE 202015009181U1 DE 202015009181 U DE202015009181 U DE 202015009181U DE 202015009181 U1 DE202015009181 U1 DE 202015009181U1
Authority
DE
Germany
Prior art keywords
image
fragment
model
color
computing devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202015009181.4U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202015009181U1 publication Critical patent/DE202015009181U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Abstract

System, das Folgendes umfasst: ein Speicher; ein oder mehrere Computergeräte, worin jedes davon einen oder mehrere Prozessoren aufweisen, worin das eine oder die mehreren Computergeräte mit dem Speicher gekoppelt sind; worin ein oder mehrere Computergeräte konfiguriert sind, um: eine Vielzahl von Fragmenten für ein dreidimensionales (3D) Modell eines geographischen Standortes zu bestimmen, worin jedes Fragment der Vielzahl von Fragmenten einem Pixel eines gemischten Bildes entspricht und jedes Fragment eine Fragmentfarbe aus dem 3D-Modell hat; die geographisch-räumlichen Lokalisierungsdaten für jedes Fragment feststellen, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheinformationen, die mit dem 3D-Modell verbunden sind; für jedes Fragment der Vielzahl von Fragmenten, eine Pixelfarbe und ein Bild zu identifizieren, basierend zumindest teilweise auf den geographisch-räumlichen Lokalisierungsdaten; ein Mischungsverhältnis zu bestimmen, das zumindest auf einer Position und einer Ausrichtung einer virtuellen Kamera basiert; und das gemischte Bild generiert, basierend zumindest auf dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe.

Description

  • VERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Patentanmeldung verweist auf den amerikanischen Patentantrag, registriert unter No. 14/333,678 , zur Anmeldung vorgelegt am 17. Juli 2014, dessen Offenbarung durch Bezugnahme hierin aufgenommen ist.
  • HINTERGRUND
  • Kartenapplikationen können Benutzern Bilder auf Straßenebene und Luftbilder von verschiedenen geografischen Regionen anzeigen. Zusätzlich zum Betrachten dieser Bilder können die Benutzer zwischen einem Bild auf Straßenebene und einem Luftbild (oder umgekehrt) wechseln oder eine Reihe von verbundenen oder getrennten Bilder auf Straßenebene anschauen. Allerdings machen es Kartenapplikationen den Benutzern schwierig, ein Gefühl des räumlichen Kontextes und der Richtung beim Anschauen der Bildern auf Straßenebene zu bewahren. Wenn beispielsweise der Reihe nach zwei oder mehrere Bilder auf Straßenebene angezeigt werden, die durch verhältnismäßig großen Abstände getrennt sind, kann es die Benutzer in Bezug auf das räumliche Bewusstsein der geographischen Region desorientieren. KURZFASSUNG
  • Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind dabei, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen. In einer Position umfasst und ermittelt das Verfahren zur Herstellung eines gemischten Bildes, mit dem einen oder der mehreren Computergeräte, eine Vielzahl von Fragmenten für ein dreidimensionales (3D) Modell eines geographischen Ortes, worin jedes Fragment der Vielzahl von Fragmenten einem Pixel des gemischten Bildes entspricht und jedes Fragment eine Fragmentfarbe aus dem 3D-Modell hat. Ferner umfasst das Verfahren das Ermitteln mit dem einen oder der mehreren Computergeräte, von weltraumgestützte Lokalisierungsdaten für jedes Fragment, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheinformationen, die mit dem 3D-Modell verbunden sind, und für jedes Fragment der Vielzahl von Fragmenten, das Identifizieren einer Pixelfarbe und eines Bildes durch das eine oder die mehreren Computergeräte, und zwar basierend zumindest teilweise auf weltraumgestützten Daten. Darüber hinaus umfasst das Verfahren das Ermitteln, durch das eine oder die mehreren Computergeräte, eines Mischungsverhältnisses, das auf mindestens eine Position und eine Ausrichtung einer virtuellen Kamera basiert, und das Generieren, durch das eine oder die mehreren Computergeräte eines gemischten Bildes basierend auf zumindest dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe.
  • Das Verfahren basiert auf technischen Überlegungen, die das Ziel haben, die technische Aufgabe der Navigation mit der Kartenapplikation für einen Benutzer zu erleichtern, und zwar durch die Verbesserung des räumlichen Bewusstseins für den Benutzer in der Kartenapplikation. Das Verfahren erreicht dieses Ziel indem es einen technischen Weg zur Reduzierung der Farbenänderungen eines Objektes oder mehrerer Objekten, die von der Kartenapplikation angezeigt werden, liefert, wenn die Benutzeransicht in der Applikation dieses einen Objektes oder mehrerer dieser Objekte sich hin und her zwischen Straßenebene und Luftebene bewegen.
  • In einer anderen Position umfasst ein System einen Speicher und ein oder mehrere Computergeräte, wobei jedes der Computergeräte einen oder mehrere Prozessoren hat und wobei das eine oder die mehreren Computergeräte mit dem Speicher gekoppelt sind. Das eine Computergerät oder die mehreren Computergeräte sind so konfiguriert, um eine Vielzahl von Fragmenten für ein dreidimensionales (3D) Modell für einen geographischen Standort festzustellen. Jedes Fragment der Vielzahl von Fragmenten entspricht einem Pixel des gemischten Bildes und jedes Fragment hat eine Fragmentfarbe vom 3D Modell. Ferner ist das ein Computergerät beziehungsweise sind die mehreren Computergeräte so konfiguriert, dass sie die weltraumgestützten Lokalisierungsdaten für jedes Fragment feststellen, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheinformationen in Zusammenhang mit dem 3D Modell. Für jedes Fragment der Vielzahl von Fragmenten ist das eine Computergerät beziehungsweise sind die mehreren Computergeräte so konfiguriert, dass sie eine Pixelfarbe und ein Bild identifizieren, basierend teilweise zumindest auf weltraumgestützten Lokalisierungsdaten, ein Mischungsverhältnis ermitteln, basierend teilweise zumindest auf eine Position und eine Ausrichtung einer virtuellen Kamera, und ein gemischtes Bild generieren, basierend mindestens auf dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe.
  • Das Verfahren basiert auf technischen Überlegungen, die das Ziel haben, die technische Aufgabe der Navigation mit der Kartenapplikation für einen Benutzer zu erleichtern, und zwar durch die Verbesserung des räumlichen Bewusstseins für den Benutzer in der Kartenapplikation. Das Verfahren erreicht dieses Ziel indem es die Farbenänderungen eines Objektes oder mehrerer Objekten, die von der Kartenapplikation angezeigt werden, reduziert, wenn die Benutzeransicht in der Applikation dieses einen Objektes oder mehrerer dieser Objekten sich hin und her zwischen Straßenebene und Luftebene bewegen.
  • In einer anderen Position, wenn ein nicht-transitorisches, greifbares, computerlesbares Medium, auf dem Anweisungen gespeichert sind, die von einem Computergerät oder von mehreren Computergeräten ausgeführt wird, um ein Verfahren zum Generieren eines gemischten Bildes durchzuführen, das eine Vielzahl von Fragmenten für ein dreidimensionales (3D) Modell des geographischen Standortes feststellt, wobei jedes Fragment der Vielzahl von Fragmenten einem Pixel des gemischten Bildes entspricht und jedes Fragment die Fragmentfarbe vom 3D-Modell. Ferner umfasst und ermittelt das Verfahren weltraumgestützte Lokalisierungsdaten für jedes Fragment, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheinformationen in Zusammenhang mit dem 3D Modell und für jedes Fragment der Vielzahl von Fragmenten, indem es eine Pixelfarbe und ein Bild identifiziert, basierend zumindest teilweise auf weltraumgestützte Lokalisierungsdaten. Darüber hinaus umfasst und ermittelt das Verfahren ein Mischungsverhältnis basierend mindestens auf einer Position und einer Ausrichtung einer virtuellen Kamera und generiert das gemischte Bild basierend auf mindestens dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine funktionelles Diagramm eines Systems in Übereinstimmung mit Positionen der Offenbarung.
  • 2 ist ein Piktogramm eines Beispielsystems in Übereinstimmung mit Positionen der Offenbarung.
  • 3 ist ein Übergangsbeispiel eines Bildes zum nächsten Bild in einem dreidimensionalen Modell in Übereinstimmung mit Positionen der Offenbarung.
  • 4 ist ein Beispiel einer Beziehung zwischen einer virtuellen Kamera, einem Bild und einem dreidimensionalen Modell in Übereinstimmung mit Positionen der Offenbarung.
  • 5A ist ein Beispiel von Pixeln in Zusammenhang mit einem Bild in Übereinstimmung mit Positionen der Offenbarung.
  • 5B ist eine Beispielabbildung von Pixelprojektion, basierend auf einer Position und einer Ausrichtung einer virtuellen Kamera in Übereinstimmung mit Positionen der Offenbarung.
  • 6 ist eine Beispielabbildung von gemischter Pixelprojektion in Übereinstimmung mit Positionen der Offenbarung.
  • 7 ist eine Beispielabbildung von gemischter Pixelprojektion und eine Mischung von einer anderen Position und Ausrichtung einer virtuellen Kamera in Übereinstimmung mit Positionen der Offenbarung.
  • 8 ist ein exemplarisches Flussdiagramm in Übereinstimmung mit Positionen der Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Überblick
  • Die vorliegende Offenbarung ist im Sinne der Übergänge zwischen Bildern auf Straßenebene und 3D Modellen der gleichen Fläche koordiniert. Ein Übergang kann das Wechseln von Straßenansichten aus einem Standort einer 3D-Modell-Ansicht und zu Straßenansichten aus einem zweiten Standort einschließen. Ein Benutzer kann beispielsweise auf einem Client-Computergerät eine Reihe von Bildern auf Straßenebene auf einem Client-Computergerät ansehen wollen (z. B. Smartphone, Tablet, Computer), von denen jede durch verschiedene Abstände getrennt sein kann. Um ein Gefühl des räumlichen Kontextes und der Richtung zu halten kann das Client-Computergerät die Anzeige eines Bildes auf Straßenebene zu einem anderen Bild auf Straßenebene transferieren, mittels einer intermediären Ansicht auf Luftebene des 3D Modells, das den räumlichen Kontext für beide Bilder ermöglicht. In diesem Sinne hat der Benutzer das Gefühl, dass eine virtuelle Kamera hinauf und hinweg von einem Bild auf Straßenebene zu einer Ansicht auf Luftebene übergeht, um sich weiterhin hinunter und zu einem zweiten Bild auf Straßenebene zu bewegen, als ob der Benutzer von einem Bild zum anderen „gesprungen” sei.
  • Bilder auf Straßenebene und 3D Modelle können beispielsweise einem Client von einem oder mehreren Server-Computergeräten geliefert werden. Ein Bild auf Straßenebene kann das Bild geographischer Objekten, Menschen und/oder Objekten, die mit einer Kamera in einem Winkel allgemein senkrecht zum Boden geschossen wurden, darstellen. Ein 3D Modell kann Informationen, wie beispielsweise Texturen, Formen, Farben usw., von Funktionen innerhalb des beinhalten. Das Client-Computergerät kann das 3D Modell und verbundene Informationen von einem oder von mehreren Server-Computergeräten vorab abrufen.
  • Um einen Übergang zwischen zwei Bildern auf Straßenebene zu ermöglichen, kann jedes Bild auf Straßenebene mit Hilfe des 3D Modells für eine Reihe von Positionen der virtuellen Kamera gemischt und so ein gemischtes Bild hergestellt werden. Wenn aneinander gereiht, können die verschiedenen gemischten Bilder angezeigt oder zur Verfügung gestellt werden, und zwar auf dem Client-Computergerät als Animation des Überganges zwischen den Bildern auf Straßenebene.
  • Für eine angegebene Position der virtuellen Kamera, um ein Bild auf Straßenebene mit einem 3D Modell der ausgewählten Fläche zu vermischen, kann das 3D Modell in individuelle Fragmente gerastert werden. Jedes Fragment kann eine aus dem 3D Modell abgeleiteten Fragmentfarbe besitzen. Darüber hinaus kann jedes Fragment einem Pixel der Anzeige des Client-Computergerätes entsprechen. Indem eine programmierbare Grafikverarbeitungseinheit (GPU) des Client-Computergeräts verwendet wird, können weltraumgestützte Lokalisierungsdaten (Breite, Länge und Höhe) für jedes Fragment festgestellt werden. In diesem Sinn können die weltraumgestützten Lokalisierungsdaten dazu verwendet werden, eine bestimmte Farbe zu identifizieren, die von einem Bild auf Straßenebene auf jedes Fragment von der gegebenen Position der virtuellen Kamera projiziert wird. Sobald die betreffenden Farben identifiziert werden, kann das Client-Computergerät diese vom Bild projizierten Farben mit den verbundenen Farben des 3D Modells vermischen. Jede Bezugnahme auf „Pixel” in der vorliegenden Offenbarung bezieht sich auf die Pixel eines Bildes, z. B., eines Bildes auf Straßenebene. Ferner bezieht sich jede Bezugnahme auf „Fragment” in der vorliegenden Offenbarung auf Fragmenten eines 3D Modells.
  • Für jede Position der virtuellen Kamera kann ein Mischungsverhältnis ermittelt werden. Jedes Mischungsverhältnis kann auf die Position der virtuellen Kamera in Bezug auf das Bild im Rahmen des 3d Modells basieren. Das Mischungsverhältnis kann andeuten, wie viel Farbe vom Bild dort im Verhältnis zur Farbe des dazugehörigen Fragments abgeleitet wurde. Wenn beispielsweise die Position der virtuellen Kamera und des Bildes auf Straßenebene übereinstimmend sind, kann die Farbe des Fragmentes gänzlich vom Bild auf Straßenebene abgeleitet werden. Je mehr sich die virtuelle Kamera vom Bild entfernt, desto genauer kann das Mischungsverhältnis des 3D Modells angepasst werden. Um ein anderes Beispiel anzugeben, kann das Mischungsverhältnis ferner von einer Verzerrung der Farbenprojektion des Bildes auf dem Fragment abhängen. Wenn beispielsweise die Positionen der virtuellen Kamera, des Fragmentes und des Bildes so sind, dass die Projektionen stark verzerrt sind, kann das Mischungsverhältnis so angepasst werden, dass sich die Farbe des damit verbundenen Fragmentes verstärkt.
  • Mischungsverhältnisse sind demzufolge dazu angewendet, die dem Bild auf Straßenebene entsprechenden Farben mit den Fragmenten des 3D Modells zu vermischen, um eine gemischtes Bild für jede angegebene Position der virtuellen Kamera zu generieren. In diesem Sinne kann jedem Fragment eine Farbe zugeordnet werden, indem ein Mischungsverhältnis verwendet wird, um ein gemischtes Bild zu verschaffen. Wiederum entspricht jedes gemischte Bild einem unterschiedlichen Standort der virtuellen Kamera. Die gemischten Bilder in ihrer Endversion können auf dem Client-Computergerät angezeigt werden, und zwar in Serien, als Animation, in Übereinstimmung mit den Positionen der virtuellen Kamera.
  • Die oben beschriebenen Funktionen ermöglichen dem Benutzer ein Gefühl des räumlichen Kontextes wenn von einem Bild auf Straßenebene zu einem anderen Bild auf Straßenebene gewechselt wird, durch das Anzeigen einer intermediären Luftansicht der benachbarten Flächen beider Bilder. Darüber hinaus reduziert die Technologie die visuelle Verzerrung des Überganges zwischen Straßenansicht und Ansicht auf Luftebene (und umgekehrt), aufgrund eines 3D Modells auf Luftebene, sowie aufgrund eines geographisch-räumlichen Standortes und der geometrischen Daten. Demzufolge erleichtert das Verfahren dem Benutzer die technische Aufgabe der Navigation mit der Kartenapplikation. Ein weiterer Vorteil ist, dass die Technologie auf einem Client-Computergerät implementiert werden kann.
  • Beispielsysteme
  • 1 und 2 stellen ein mögliches System 100 dar, in dem die offengelegten Positionen implementiert werden können. In 1 schließt das System 100 die Client-Computergeräte 110, 130 und 160 ein. Wie bereits gezeigt, kann ein Client-Computergerät 110 oder sogar mehrere Client-Computergeräte einen oder mehrere Prozessoren 112, einen Speicher 114, einen Bildschirm 120 und weitere Komponente beinhalten, die typischerweise von Geschäften angeboten werden, die Computergeräte zum allgemeinen Gebrauch anbieten.
  • Obwohl 1 aus funktionellen Gründen jeden der Prozessoren 112 und dem Speicher 114 als einen einzigen Block darstellen, im Rahmen eines oder mehreren Client-Computergeräten 110, die auch als einen einzigen Block dargestellt werden, kann das System folgendes einschließen und das hiermit beschriebene Verfahren folgendes einbeziehen: vielfache Prozessoren, Speicher und Geräte, die in derselben physischen Gehäusekonstruktion oder woanders bewahrt werden können. Verschiedenartige Beispiele und Verfahren, die nachfolgend als eine einzige Komponente vorsehend (z. B, einen oder mehrere Prozessoren 112) dargelegt werden, können eine Vielfach von Komponenten einbeziehen (z. B., multiple Computergeräte, verteilt über ein Netzwerk von Computergeräten Computer, „Racks” usw., als Teil einer parallelen oder verteilten Implementierung; ferner, die vielfachen Funktionen die von den Ausführungsformen durchgeführt werden, können von unterschiedlichen Computergeräten zu unterschiedlichen Zeiten arbeiten, während die Last untereinander, unter den Computergeräten, geschoben wird). Gleichermaßen können verschiedene Beispiele und Verfahren, die nachfolgend so beschrieben sind, dass sie verschiedene Komponenten (z. B. Client-Computergeräte 110, 130 und 160) beinhalten, eine einzelne Komponente beinhalten (anstatt, dass beispielsweise das Client-Computergerät 130 eine nachstehend beschriebene Bestimmung ausführt, kann ein Client-Computergerät 130 die relevanten Daten zur Verarbeitung an ein oder mehrere Client-Computergeräte 110 senden und die Ergebnisse der Bestimmung für eine künftige Verarbeitung oder Anzeige empfangen).
  • Speicher 114 des einen oder der mehreren Client-Computergeräte 110 kann Informationen speichern, die von einem oder mehreren Prozessoren 112 abrufbar sind, einschließlich die Anleitungen 116, die vom Prozessor oder von den Prozessoren durchgeführt werden können. Speicher 114 kann auch die Daten 118 einschließen, die von einem oder mehreren Prozessoren 112 abgerufen, manipuliert oder gespeichert werden können. Speicher 114 und weitere Speicher, die nachstehend beschrieben sind, können jedwede Art von Speicherform darstellen, die Informationen speichern können, welche vom betreffenden Prozessor abrufbar sein können, wie beispielsweise eine Festplatte, ein Solid State Drive, eine Speicherkarte, RAM, ROM, DVD, ein Schreibspeicher oder ein Festspeicher. Darüber hinaus kann der Speicher einen verteilten Speichersystem einschließen, in dem Daten, wie beispielsweise Daten 118, in einer Vielzahl von unterschiedlichen Speichervorrichtungen gespeichert sind, die sich physikalisch am gleichen oder an unterschiedlichen geografischen Standorten befinden können.
  • Die Anleitungen 116 können eine beliebige Menge von Anweisungen sein, die durch den einen oder mehrere Prozessoren 112 oder durch andere Computergeräte ausgeführt werden. Diesbezüglich können die Begriffe „Anweisungen”, „Anwendung”, „Schritte” und „Programme” hierin austauschbar verwendet sein. Die Anweisungen können in Objektcodeformat zur sofortigen Verarbeitung durch den Prozessor oder in einer anderen Computergerätsprache, die Skripte oder Sammlungen von unabhängigen Quellcode-Modulen beinhaltet, die auf Anforderung interpretiert oder vorab kompiliert werden. Funktionen, Verfahren und Routinen der Anweisungen werden unten ausführlicher erklärt. Der eine oder die mehreren Prozessoren 112 können jeweils ein konventionellen Prozessor sein, wie beispielsweise eine im Handel erhältliche Zentraleinheit („CPU”) oder ein Grafikprozessor („GPU”). Alternativ können die Prozessoren eine dedizierte Komponente sein, wie beispielsweise eine anwendungsspezifische integrierte Schaltung („ASIC”), ein feldprogrammierbares Gate-Array („FPGA”) oder ein anderer Hardware-Prozessor.
  • Daten 118 können von einem oder mehreren Client-Computergeräten 110 in Übereinstimmung mit den Anweisungen 116 abgerufen, gespeichert oder geändert werden. So können beispielsweise, obwohl der hierin beschriebene Gegenstand nicht durch eine beliebige bestimmte Datenstruktur beschränkt ist, die Daten in Computerregistern, in einer relationalen Datenbank als Tabelle, die viele verschiedene Felder und Datensätze aufweist, oder XML-Dokumenten gespeichert werden. Die Daten können außerdem in einem beliebigen computergerätlesbaren Format wie, aber nicht beschränkt auf, Binärwerten, ASCII oder Unicode formatiert sein. Des Weiteren können die Daten beliebige Informationen umfassen, die ausreichend sind, um die relevanten Informationen zu identifizieren, wie Zahlen, beschreibenden Text, proprietäre Codes, Zeiger, Referenzen auf Daten, die in anderen Speichern wie anderen Netzwerkstandorten gespeichert sind, oder Informationen, die von einer Funktion verwendet werden, um die relevanten Daten zu berechnen, umfassen. Wie nachstehend bezüglich den 36 näher erläutert, können Daten 118 beispielsweise mindestens Turn-by-Turn-Anweisungen, Straßensegmente, Wegpunkte, Panoramabilder, verschiedenen Straßenabschnitten zugeordnet sind, Filterparameter usw. umfassen.
  • Bildschirm 120 und weitere nachfolgend beschriebene Anzeigen können jede Art von Display sein, wie beispielsweise ein Monitor mit einem Bildschirm, ein Touchscreen, ein Projektor oder ein Fernsehgerät. Der Bildschirm 120 des einen oder der mehreren Computergeräte 110 können elektronische Informationen für einen Benutzer via einer graphischen Benutzeroberfläche („GUI”) oder weiteren Arten von Benutzeroberflächen anzeigen. Wie beispielsweise nachfolgend besprochen wird, kann Bildschirm 120 elektronisch einen Web Browser anzeigen, einschließlich eine Kartenoberfläche mit Turn-by-Turn Anweisungen zwischen zwei geographischen Standorten, entsprechenden Straßensegmenten und Wegpunkten.
  • Darüber hinaus können sich die Client-Computergeräte 110, 130 und 160 an einem Knoten eines Netzwerkes 170 befinden und im Stande sein, direkt und indirekt mit weiteren Knoten des Netzwerkes 170 zu kommunizieren, wie beispielsweise mit einem oder mehreren Server-Computergeräten 140 und einem Speichersystem 150. Obwohl nur einige Computergeräte in 1 dargestellt sind, kann ein typisches System eine große Anzahl von verbundenen Computergeräten beinhalten, wobei jedes unterschiedliche Computergerät an einem anderen Knoten des Netzwerkes 170 sein kann. Das Netzwerk 170 und die nachfolgend beschriebenen dazwischen liegenden Knoten können verbunden werden, indem verschiedene Protokolle und Systeme verwendet werden, sodass das Netzwerk Teil des Internets, des World Wide Webs, von spezifischen Intranets, Wide Area Netzwerke oder lokalen Netzwerken werden kann. Das Netzwerk kann Standard-Kommunikationsprotokolle verwenden, wie beispielsweise Ethernet, Wi-Fi und HTTP-Protokolle, die an einer oder mehreren Gesellschaften proprietär sind und verschiedene Kombinationen davon. Obwohl bestimmte Vorteile erzielt werden, wenn Informationen wie oben beschrieben übertragen oder empfangen werden, sind andere Aspekte des hierin beschriebenen Gegenstands nicht auf eine bestimmte Art der Übertragung von Informationen beschränkt.
  • Ein oder mehrere Server-Computergeräte 140 können beispielsweise ein Webserver bedeuten, der die Kommunikation mit dem einen oder mehreren Client-Computergeräten 110 über das Netzwerk 170 ermöglichen kann. Wie nachstehend betreffend der 2 ausführlich besprochen, können die Client-Computergeräte 110, 130 und 160 Client-Computergeräte oder weitere Benutzer-Geräte sein und das eine oder die mehreren Server-Computergeräte 140 können Informationen zum Anzeigen bereitstellen, indem das Netzwerk 170 angewendet wird, im Sinne der Übertragung und Vorstellung von Informationen an einem Benutzer der Client-Computergeräte 110, 130 und 160.
  • Als ein anderes Beispiel kann Speichersystem 150 verschiedene Bilder speichern. Die Bilder können beispielsweise Panoramabilder auf Straßenebene, Fotografien, Bilder usw. sein. Als Beispiel kann das Bild geographischer Objekten, Menschen und/oder Objekten, die mit einer Kamera in einem Winkel allgemein senkrecht zum Boden geschossen wurden, darstellen. Somit kann das Bild auf Straßenebene verschiedene geografische Objekte darstellen, wie Gebäude, einen Gehweg, Straßen, Fahrzeuge, Menschen, Straßenlaternen, Schilder, Anzeigen, Bäume, Skulpturen, Gewässer, Fassaden, Sehenswürdigkeiten usw.
  • Einige der Bilder, die im Speichersystem 150 gespeichert sind, können auch mit Informationen verknüpft werden, die die Ausrichtung des betreffenden Bildes angeben. Wenn beispielsweise ein Bild auf Straßenebene eine typische Fotografie ist, dann soll die Ausrichtung dem Winkel der Kamera entsprechen. Wenn ein Bild auf Straßenebene ein 360° Panorama-Bild ist, wie ein 360° Panorama, das auf der geographischen Lage verbunden mit dem Bild zentriert ist, kann die Ausrichtung denjenigen Teil des Bildes anzeigen, der dem Blick gegen Norden von der Kameraposition entspricht, bei einem Winkel, der direkt parallel zum Boden ist. Ferner können die oben beschriebenen Bilder auch Metadaten enthalten, die selber die geographische Lage des Bildes einschließen können (z. B., GPS-Koordinaten), Tageszeit oder Zeit des Jahres, die Ausrichtung des Gerätes (z. B., den Winkel, den Nick-, den Roll- und/oder den Kompass-Punkt), Beschleunigungsinformationen, die Genauigkeit der GPS-Ortung, Statistiken zur GPS-Ortung (z. B., städtisch vs. ländlich vs. Wildnis) etc.
  • Das Speichersystem 150 kann auch 3D Modelle von verschiedenartigen geographischen Flächen speichern. Ein 3D Modell kann beispielsweise eine computergenerierte mathematische Darstellung eines bestimmten geografischen Gebietes darstellen. Das 3D-Modell kann als ein zweidimensionales Bild über 3D-Rendering für die Anzeige zur Verfügung gestellt werden oder kann bei der Computersimulation verwendet werden. Das 3D Modell kann auch manuell oder automatisch über 3D-Modellierungsprogramme generiert werden. Darüber hinaus kann das 3D-Modell verschiedene Texturen, Formen, Farben usw. der modellierten Funktionen aufweisen.
  • Das Speichersystem 150 kann ferner räumliche Lokalisierungsinformationen speichern, die mit dem 3D Modell und den dazugehörigen Fragmenten verbunden sind. Die weltraumgestützten Lokalisierungsdaten können dazu verwendet werden, um festzustellen, welche Fragmente des 3D-Modells zu welchen Pixels des einen Bildes auf Straßenebene entsprechen. Die weltraumgestützte Lokalisierungsdaten schließen mindestens Breitengradinformationen, Längengradinformationen und Höheinformationen ein, die dem 3D-Modell eines geographischen Standortes entsprechen.
  • Was Speicher 114 betrifft, kann das Speichersystem 150 jedwede Art von computergestützter Speicherform darstellen, die Informationen speichern kann, die von einem oder von mehreren Server-Computergeräten 140 abgerufen werden können, wie beispielsweise eine Festplatte, eine Speicherkarte, RAM, ROM, DVD, CD-ROM, einen Schreibspeicher und einen Festspeicher. Außerdem kann das Speichersystem 150 ein verteiltes Speichersystem beinhalten, in dem Daten auf einer Vielzahl von unterschiedlichen Speichermedien gespeichert sind, die sich physikalisch am gleichen oder an unterschiedlichen geografischen Standorten befinden können. Speichersystem 150 kann über das Netzwerk 170 an den Client-Computergeräten gekoppelt werden, wie in 1 gezeigt, und/oder kann direkt an einem Client-Computergerät verbunden oder in solch einem eingebaut werden, beispielsweise 110, 130 und 160 (nicht gezeigt). In diesem Sinne können Daten 118, die indem Speicher 114 gespeichert sind, vom Speichersystem 150 abgerufen werden.
  • Das eine oder die mehreren Computergeräte 110 können folgendes sein: ein persönliches Computergerät 210, wie beispielsweise ein Laptop, für die Nutzung seitens eines Benutzers 216 gedacht (gezeigt in 2). Das persönliche Computergerät 210 kann alle Komponenten haben, die in der Regel in Verbindung mit einem persönlichen Computergerät verwendet werden, wie beispielsweise eine CPU oder eine GPU, Daten zum Speichern und Anweisungen, eine Anzeige, wie Bildschirm 212 (z. B. ein Monitor mit einem Bildschirm, ein Touchscreen, ein Projektor, ein Fernseher oder ein anderes Gerät, das betriebsfähig ist, Informationen anzuzeigen), und die Benutzereingabevorrichtung 214 (zum Beispiel eine Maus, eine Tastatur, ein Touchscreen, ein Mikrofon usw.). Darüber hinaus kann das persönliche Computergerät 210 auch Komponenten zur Bestimmung seiner Position und Ausrichtung beinhalten (nicht gezeigt). Diese Komponenten können beispielsweise einen GPS-Empfänger beinhalten, um den Breitengrad, den Längengrad und/oder die Höhe zu bestimmen, sowie einen Beschleunigungsmesser, einen Gyroskop oder andere ähnliche Vorrichtungen.
  • In einem anderen Beispiel kann das Client-Computergerät 130 ein tragbares Computergerät 230 beinhalten, wie z. B. ein Head-Mounted-Computersystem zur Verwendung durch einen Benutzer 232 oder ein Computing-Armband, einen Computing-Ring oder eine Computing-Uhr usw. In einem weiteren Beispiel kann das Client-Computergerät 160 ein mobiles Computergerät 260 beinhalten, das zur Verwendung durch einen Benutzer 262 gedacht ist und das in der Lage ist, einen drahtlosen Datenaustausch mittels eines Servers über ein Netzwerk, wie das Internet, zu ermöglichen. Als Beispiel allein kann ein mobiles Computergerät 260 ein Mobiltelefon oder ein Gerät sein, wie beispielsweise ein WLAN-fähiges PDA, ein Tablet-PC oder ein Netbook, das die Fähigkeit besitzt, Informationen über das Internet zu erhalten.
  • Die Client-Computergeräte können so konfiguriert werden, dass sie mittels eines Betriebssystems operieren. Diesbezüglich können einige der Anweisungen, die während der hierin beschriebenen Operationen ausgeführt werden, durch das Betriebssystem bereitgestellt sein, wohingegen andere Anweisungen durch eine Anwendung, die auf der Vorrichtung installiert ist, bereitgestellt sein können. Die Client-Computergeräte 110, 130 und 160 in den 1 und 2 und weitere Computergeräte, in Übereinstimmung mit den hierin beschriebenen Systemen und Verfahren, können auch andere Vorrichtungen einschließen, die fähig sind, Anweisungen zu verarbeiten und Daten von Menschen zu Menschen und/oder zwischen Computern untereinander zu übertragen, einschließlich Netzwerk-Computern, denen die lokale Speicherfähigkeit fehlen, und Set-Top-Boxen für Fernsehgeräte.
  • Beispielverfahren
  • Zusätzlich zu den oben ausführlich beschriebenen Operationen, die in den Figuren dargestellt werden, werden jetzt verschiedene Operationen beschrieben. Die folgenden Operationen müssen nicht in der nachfolgend beschriebenen Reihenfolge durchgeführt werden. Vielmehr können verschiedene Schritte in einer anderen Reihenfolge oder gleichzeitig behandelt werden, und die Schritte können ebenfalls hinzugefügt oder weggelassen werden.
  • 3 illustriert ein Übergangsbeispiel von einem ersten Bild auf Straßenebene zu einem zweiten Bild auf Straßenebene via eines 3D-Modells 300. Das 3D-Modell 300 kann beispielsweise mindestens zwei verschiedene Flächen 302 und 310 einschließen. Ein Zwischenraum 364 zwischen den Bereichen 302 und 310 stellt dar, dass die beiden Standorte durch eine bestimmte Distanz getrennt werden können, beispielsweise durch einen oder durch mehrere Blöcke oder durch eine oder durch mehrere Meilen. Der Zwischenraum 364 kann eine beliebige Größe haben. Das 3D-Modell kann beispielsweise den gesamten Planeten, umfassen, z. B. einen Übergang zwischen einem Bild in New York und einem Bild in Japan. Wie gezeigt, Fläche 302 kann die Gebäuden 312, 314, 316 und 318 einschließen. Ferner kann Fläche 310 die Gebäuden 320, 322, 324, 326, 328 und 330 einschließen. Die Flächen 302 und 310 können zudem, wie dargestellt, zahlreiche Parks und Picknickzonen beinhalten.
  • Standorte innerhalb des 3D Modells 300 können einer Vielzahl von Bildern zugewiesen sein, wie beispielsweise Bildern auf Straßenebene. Diese Bilder können für die Anzeige zur Verfügung gestellt werden, wenn das von einem Benutzer über ein Client-Computergerät, wie beispielsweise über ein Personalcomputergerät 210, über das tragbare Computergerät 230 oder über das mobile Computergerät 260, angefordert wird. Ein Benutzer kann beispielsweise anfordern, ein oder mehrere Bilder von einer Position 332 innerhalb der Fläche 302 zu betrachten. Die Bilder, die mit der Position 332 verknüpft sind, können eine Vielzahl von Bildern auf Straßenebene, zum Beispiel Panoramabilder, sein, zusammengenäht in einer allgemein kuppelförmigen oder kugelförmigen Konfiguration. In dieser Hinsicht kann der Benutzer übergangslos in der Lage sein, alle Bilder auf Straßenebene von der Position 332 mittels einer 360 Grad Drehung betrachten. Auf ähnlicher Weise können eine Vielzahl von Bilder auf Straßenebene auch in einer allgemein kuppelförmigen Konfiguration an Position 342 zusammengenäht werden, um dem Benutzer eine 360-Grad-Ansicht zur Verfügung zu stellen.
  • In einem Fall kann ein Benutzer einen Übergang von einem Bild auf Straßenebene zu einem anderen Bild auf Straßenebene, das sich bei einer bestimmten Entfernung befinden, anfordern. Um es nur beispielsweise zu erläutern, kann ein Bild auf Straßenebene 340 auf einem Client-Computergerät für die Anzeige zur Verfügung gestellt werden. Aus einer Position 332, kann das Bild auf Straßenebene 340 einige Teile des Gebäudes 316 und alle Teile des Gebäudes 318 erfassen. Anschließend kann der Benutzer anfordern, vom Bild auf Straßenebene 340 zu einem anderen Bild auf Straßenebene überzugehen. Das nächste Bild auf Straßenebene kann im gleichen Bereich sein oder kann sich in einem anderen Bereich befinden. Zum Beispiel kann ein Übergang vom Bild auf Straßenebene 340 zu einem Bild auf Straßenebene 350 an Position 342 in der Fläche 310 generiert werden.
  • Um einen Übergang von einem Bild auf Straßenebene zu einem zweiten Bild auf Straßenebene anzuzeigen kann ein oder mehrere Computergeräte eine intermediäre Luftaufnahme eines 3D-Modells rendern, damit einem Benutzer das Gefühl gegeben wird, dass er beim Übergang von einem Bild zum anderen „gesprungen sei”. Das 3D-Modell kann für die Anzeige als ein zweidimensionales Bild über 3D-Rendering bereit gestellt werden. Das 3D-Modell 300 kann beispielsweise dazu verwendet werden, dass es eine Luftaufnahme während einer Übergangsbahn 360 zwischen Bild auf Straßenebene 340 an Position 332 und Bild auf Straßenebene 350 an Position 342 liefert. Während des Überganges 360 kann eine virtuelle Kamera entlang dieser Bahn bewegt werden, und zwar kann sie von ihrer anfänglichen Position 332 bis zu einem Scheitelpunkt 362 der Übergangsbahn 360 im 3D-Modell 300 aufsteigen, um dann zur Position 342 in das Bild aus Straßenebene 350 herabzusteigen. Ein Bildschirm mit Anzeigefunktion eines Client-Computergerätes kann beispielsweise analog zu einem Film der Kamera sein. Mit anderen Worten kann die virtuelle Kamera die mathematische Transformation definieren, die 3D-Daten, die dem 3D-Modell zugeordnet sind, in Bilder auf dem Anzeigebildschirm konvertieren. Daher hat der Benutzer, aus der Sicht der virtuellen Kamera, das Gefühl, dass die virtuelle Kamera sich hin und her vom Bild auf Straßenebene 340 zu einer Luftaufnahme des 3D-Modells und anschließend nach unten zu Bild auf Straßenebene 350 bewegt, als ob der Benutzer zwischen den Bildern gesprungen sei.
  • Eine Übergangsbahn von einem Bild auf Straßenebene zu einem zweiten Bild auf Straßenebene kann variieren, abhängig zumindest vom Abstand zwischen den Bildern. Wenn beispielsweise die Bilder auf Straßenebene 340 und 350 ferner voneinander beabstandet sind, kann sich die Übergangsbahn 360 höher, in Zusammenhang mit dem 3D-Modell 300, wölben. Somit kann der höhere Bogen einem Benutzer eine bessere räumliche Wahrnehmung und Richtung zwischen den beiden Bildern auf Straßenebene ermöglichen.
  • Wenn ein Übergang von einem Bild auf Straßenebene zu einem anderen Bild auf Straßenebene durch eine Luftaufnahme des 3D Modells wiedergegeben wird, kann eine Reihe von gemischten Bildern, die unterschiedlichen Punkten entlang der Übergangsbahn entsprechen, die wiederum Standorten der virtuellen Kamera entsprechen, zur Anzeige aneinandergereiht werden. Demzufolge kann ein gemischtes Bild für jede Position (z. B. x, y, z) und Ausrichtung der virtuellen Kamera auf der Übergangsbahn 362 in Zusammenhang mit dem 3D-Modell 300 erzeugt werden. In einigen Fällen kann nur ein bestimmter Satz von Positionen und Ausrichtungen der virtuellen Kamera während des Überganges verwendet werden. In anderen Fällen können die gemischten Bilder in Intervallen entlang der Übergangsbahn geschossen werden, um die Wiedergabe des Übergangs zu generieren. In dieser Hinsicht können Hardware-Ressourcen im Client-Computergerät konserviert werden, die zum Anzeigen des Überganges konfiguriert wurden.
  • Um ein gemischtes Bild für eine gegebene Position und Ausrichtung der virtuellen Kamera zu erzeugen, kann das 3D-Modell 300 in Fragmente gerastert werden, die den Pixeln einer Anzeige eines Client-Computergerätes entsprechen. In dieser Hinsicht kann die Position und Ausrichtung der virtuellen Kamera in Zusammenhang zum 3D-Modell so verwendet werden, dass sie das 3D-Modell 300 auf die Pixels der Anzeige „projizieren”. Somit wird jedem Fragment Farbe und geographische Standortinformation vom 3D Modell zugeordnet.
  • 4 ist ein Beispiel für eine Beziehung unter einer virtuellen Kamera 410 an Position und Ausrichtung 412, einem 3D-Modell 300 und dem Bild auf Straßenebene 340. Wie gezeigt, beinhaltet das 3D-Modell 402 mindestens Fragmente 430, 440, 450 und 460, die den Pixeln einer Anzeige eines Client-Computergerätes entsprechen, sei Position und Ausrichtung 412 der virtuellen Kamera 410 gegeben. Die Standortinformationen für jedes Fragment oder Pixel können aus der Projektion bestimmt werden. Beispielsweise Fragmente 430, 440, 450 und 460 können unterschiedlichen geographischen Koordinaten mit den jeweiligen Breitengrad, Längengrad und Höheninformation zugeordnet werden.
  • Unter Verwendung der Positionsinformationen für jedes Fragment, der Position und der Ausrichtung der virtuellen Kamera 410 und/oder der geographischen Ortsinformation eines Bildes auf Straßenebene, sich am nächsten zur Position der virtuellen Kamera befindend, kann ein oder mehrere Computergeräte bestimmen, welche Pixel des Bildes auf Straßenebene den Standorten der Fragmente entsprechen. Das kann dazu verwendet werden, um eine Farbe des Bildes auf Straßenebene, jedem Fragment entsprechend, zu identifizieren. In 4 kann die virtuelle Kamera 410 gegen Bild auf Straßenebene 340 gerichtet sein. Als solches ist die virtuelle Kamera 410 in solch einer Weise ausgerichtet, dass die Pixel des Bildes auf Straßenebene 340 auf die Fragmente 430, 440, 450 und 460 sowie auf andere benachbarte Fragmente projiziert werden. Somit kann jedes Fragment einer Farbe der Pixel des Bildes auf Straßenebene 340 zugeordnet werden.
  • 5A ist eine Beispielabbildung der Pixel, die einem anzeigbaren Bild, wie beispielsweise einem Bild auf Straßenebene 340, zugeordnet ist. Wie gezeigt, kann das Bild auf Straßenebene 340 eine bestimmte Länge und eine bestimmte Breite haben. Zum Beispiel kann das Bild auf Straßenebene 340 ein Panoramabild sein. Darüber hinaus kann das Bild 340 bildlich durch eine Vielzahl von Gitterzellen 510 dargestellt werden, wobei jede Gitterzelle einen einzelnen Bildpunkt des Bildes darstellt, wie beispielsweise Pixel 512. Das Pixel 512, wie auch die anderen Pixel des Bildes 340, kann bestimmten Farben zugeordnet sein. Wie oben erwähnt, können die Farben den Fragmenten zugeordnet und mit der entsprechenden Farbe aus dem 3D-Modell gemischt werden.
  • 5B ist eine beispielhafte Darstellung von Pixelprojektion, basierend auf einer Position und einer Ausrichtung der virtuellen Kamera 410. Beispielsweise kann das Bild auf Straßenebene 340 ein aus einer Vielzahl von Bildern auf Straßenebene sein, die derart miteinander in einer allgemein kuppelförmigen Konfiguration so zusammengenäht sind, dass ein Benutzer alle Bilder mittele einer 360 Grad Drehung betrachten könnte, sei eine bestimmte Position und Ausrichtung der virtuellen Kamera 410 gegeben. Wie gezeigt, kann das Bild auf Straßenebene 340 leicht gekrümmt sein. Des Weiteren kann die virtuelle Kamera 410 so positioniert sein, dass sie das Bild auf Straßenebene 340 sichtet, und auch mit Blickwinkeln 520, 530, 540 und 550 nach oben geneigt, verschiedene Pixel des Bildes auf Straßenebene 340 kreuzend. In einer Position können die Blickwinkel 520 und 550 die Grenzen der virtuellen Kamera 410 darstellen.
  • 6 ist eine beispielhafte Darstellung von Pixelprojektion auf Fragmente aus einem 3D-Modell. Wie gezeigt, kann das Beispiel der Pixelprojektion von 5B auf einem 3D-Modell des Gebäudes 318 angewendet werden. Wenn beispielsweise die Blickwinkel 520, 530, 540 und 550 von der virtuellen Kamera 410 vollständig ausgefahren sind, können sie mit verschiedenen Fragmente des 3D-Modells des Gebäudes 318 ausgerichtet werden. In einem Fall gleichen die Blickwinkel 520, 530, 540 und 550 zumindest die Fragmente 420, 430, 440, 450 und 460 ein. Mithilfe der geographisch-räumlichen Standortdaten (z. B., Breitengrad, Längengrad und Höheninformation) der Fragmente und Ausrichtungsinformationen von der Position und der Ausrichtung der virtuellen Kamera 410, werden die vier abgedunkelten Pixel des Bildes auf Straßenebene 340 auf die Fragmente 420, 430, 440, 450 und 460 des 3D-Modells des Gebäudes 318 projiziert.
  • Ein Mischungsverhältnis zwischen den Farben, die mit den Fragmenten verbunden sind, kann aufgrund der Position und der Ausrichtung der virtuellen Kamera 410 bestimmt werden. In diesem Beispiel kann eine erhebliche Menge an Farbe vom Bild auf Straßenebene in die Fragmente 430, 440, 450 und 460 gemischt werden, aufgrund der virtuellen Kamera 410, die allgemein senkrecht im Verhältnis zum Bild auf Straßenebene 340 gerichtet ist, gemischt werden. Sobald die Farben entsprechend einem Mischungsverhältnis gemischt werden, kann eine endgültige Version des 3D-Modells zur Anzeige für den Benutzer zur Verfügung gestellt werden. In dieser Hinsicht kann ein gemischtes Bild für jede Position der virtuellen Kamera 410 auf der Übergangsbahn erzeugt werden.
  • Das Vermischen der Farben der Pixel und der entsprechenden Fragmente kann auf einem Mischungsverhältnis basieren. Das Mischungsverhältnis kann das Verhältnis zwischen der Menge der Farbe, die vom Bild auf Straßenebene entnommen wird, und der Farbe, die aus dem 3D-Modell abgeleitet wird, repräsentieren. Die quantitative Beziehung der Farben auf der Position kann von der Position, der Ausrichtung, dem Abstand und dem Blickwinkel der virtuellen Kamera in Bezug auf einem Bild auf Straßenebene abhängen.
  • Ein Blickwinkel von einer virtuellen Kamera kann ein Pixel bei einem betreffenden Winkel kreuzen. Dieser Schnittwinkel kann zumindest teilweise das Mischungsverhältnis an den entsprechenden Fragmenten bestimmen. Die Blickwinkel 520, 530, 540 und 550 der virtuellen Kamera 410 befinden sich beispielsweise allgemein senkrecht zu den Pixeln, die projiziert werden. Aufgrund dieser im Allgemeinen orthogonalen Ausrichtung und der Nähe der virtuellen Position und der Ausrichtung der Kamera 410 in Bezug auf dem Bild auf Straßenebene, kann das Mischungsverhältnis die Farben vom Bild auf Straßenebene 340 begünstigen. Somit, abhängig von der Position, Ausrichtung der virtuellen Kamera 410, ihrer Ausrichtung, der Ausrichtung des Blickwinkels und/oder der Entfernung zum Bild auf Straßenebene 340, können die Farben des Mischungsverhältnisses, die begünstigt werden können, variieren.
  • 7 ist eine beispielhafte Darstellung von Pixelprojektion und eine Mischung von einer anderen Position und Ausrichtung der virtuellen Kamera 410. Dieses Beispiel veranschaulicht die letzte Hälfte der Übergangsbahn 360, die in 3 dargestellt ist. Ähnlich wie Fläche 302 beinhaltet die Fläche 310 3D-Modelle der Gebäude 320, 322, 324, 326, 328, 330, Bäume, Picknicktische, Straßen usw. Die Fläche 302 kann auch in Fragmente gerastert sein, die den Pixeln einer Anzeige eines Client-Computergerätes entsprechen. Wie gezeigt, wird die virtuelle Kamera 410 vom Scheitelpunkt 362 der Übergangsbahn 360 (nicht gezeigt) zur Position 342 absteigen, um den Übergang zu vollenden.
  • Aus der Position, der Ausrichtung und dem Abstand der virtuellen Kamera 410, wie in 7 dargestellt, erstrecken sich die Blickwinkel und durchschneiden das Bild auf Straßenebene 350 in verschiedenen Winkeln. Blickwinkel 720 durchschneidet beispielsweise das Bild auf Straßenebene 350 in einem allgemein nicht senkrechten, fast tangentialen Winkel, relativ zu einer Oberfläche des Bildes auf Straßenebene 350. Ferner sind die virtuelle Kamera 410 und das Bild auf Straßenebene 350 von einem großen Abstand getrennt. Basierend auf der Position, der Ausrichtung, dem Abstand und der Ausrichtung der Blickwinkel der virtuellen Kamera 410 in Bezug auf dem Bild auf Straßenebene 350, kann das Mischungsverhältnis die Farben aus den Fragmenten des 3D-Modells 300 der Fläche 310 begünstigen. In diesem Zusammenhang kann sich die Menge der Farbe aus einem Fragment des 3D-Modells 300 erhöhen, indem die virtuelle Kamera 410 weniger mit dem Bild auf Straßenebene 350 immer weniger übereinstimmend ist.
  • 8 ist ein beispielhaftes Ablaufdiagramm 800 um ein gemischtes Bild zu erzeugen. Anhand des Beispiels in FIG. Nur 1, bei Block 810, ein oder mehrere Computergeräte, beispielsweise das Client-Datenverarbeitungsgerät 110, kann eine Vielzahl von Fragmenten für ein 3D-Modell eines geographischen Standortes, der im Speicher gespeichert ist, bestimmen, beispielsweise Speicher 114, Speicher 144, Speichersystem 150. Jedes Fragment der Vielzahl von Fragmenten kann einem Pixel des gemischten Bildes entsprechen und jedes Fragment kann ein Fragment Farbe haben. In Block 820 können das eine oder die mehreren Computergeräte 110 für jedes Fragment den geographisch-räumlichen Standort feststellen, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheninformationen, die mit dem 3D-Modell verbunden sind. Indem der geographisch-räumlichen Standort verwendet wird, kann die Pixelfarbe, die jedem Fragment entspricht, identifiziert werden.
  • Somit, können bei Block 830 für jedes Fragment der Vielzahl von Fragmenten ein oder mehrere Computergeräte 110 eine Pixelfarbe und ein Bild identifizieren, basierend zumindest teilweise auf den Daten betreffend des geographisch-räumlichen Standortes in Block 830. Die identifizierte Pixelfarbe, die jedem Fragment entspricht, kann, basierend auf einem Mischungsverhältnis, mit der jeweiligen Fragmentfarbe gemischt werden. Wie oben ferner erwähnt, kann das Bild ein Bild auf Straßenebene, die mit dem 3D-Modell verknüpft ist, im Speicher abgelegt sein. In Block 840 können das eine oder die mehreren Computergeräte 110 das Mischungsverhältnis bestimmen. Wie oben erwähnt, kann das Mischungsverhältnis ein Verhältnis zwischen einer Menge der Pixelfarbe und einer Menge der Fragmentfarbe sein. Das Mischungsverhältnis kann von der Position, der Ausrichtung, der Entfernung usw. von einer virtuellen Kamera in Bezug auf einem Bild auf Straßenebene innerhalb des 3D-Modells abhängen.
  • In Block 850, können das eine oder die mehreren Computergeräte 110 das gemischte Bild generieren, basierend zumindest auf dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe. Das gemischte Bild kann für die Anzeige auf einem separaten Bildschirm zur Verfügung gestellt werden, oder auf einem oder mehreren Client-Computergeräten 110 oder auf anderen Client-Computergeräten, wie beispielsweise Client-Computergerät 130 und Client-Computergerät 160 des Netzwerkes 170. Ferner, wenn eine Anfrage auf einen Übergang von einem Bild bei Block 830 zu einem anderen Bild empfangen wird, können ein oder mehrere Client-Computergeräten 110 eine Reihe von gemischten Bilder entlang einer bestimmten Übergangsbahn zwischen den beiden Bildern generieren. Die gemischten Bilder können Teil einer Animation sein und ebenfalls im Speicher gespeichert werden.
  • Wenn nicht anders angegeben, sind die vorstehenden alternativen Beispiele nicht als nicht gegenseitig ausschließend zu verstehen, sondern können in verschiedenen Kombinationen implementiert werden, um einzigartige Vorteile zu erzielen. Auch wenn diese und andere Variationen und Kombinationen der oben beschriebenen Merkmale verwendet werden können, ohne von dem in den Ansprüchen definierten Gegenstand abzuweichen, ist die vorstehende Beschreibung der Ausführungsformen nur als Veranschaulichung und nicht als Einschränkung des in den Ansprüchen definierten Gegenstands anzusehen. Darüber hinaus darf die Angabe der hierin beschriebenen Beispiele und Klauseln, die mit Begriffen wie etwa „zum Beispiel”, „einschließlich” und dergleichen formuliert werden, nicht als Einschränkung des Gegenstands der Ansprüche auf diese spezifischen Beispiele interpretiert werden, da die Beispiele lediglich dazu dienen, eine der vielen möglichen Ausführungsformen zu veranschaulichen. Ferner können dieselben Referenznummern in unterschiedlichen Zeichnungen dieselben oder ähnliche Elemente identifizieren.
  • INDUSTRIELLE ANWENDBARKEIT
  • Die vorliegende Offenbarung kann so verwendet werden, dass sie Übergänge zwischen Bildern auf Straßenebene und 3D-Modellen aus dem gleichen Bereich zu liefern, wobei solche Übergänge einem Benutzer das Gefühl des räumlichen Kontextes ermöglichen und somit die technische Aufgabe der Navigation mit der Kartenapplikation für einen Benutzer erleichtert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 14/333678 [0001]

Claims (11)

  1. System, das Folgendes umfasst: ein Speicher; ein oder mehrere Computergeräte, worin jedes davon einen oder mehrere Prozessoren aufweisen, worin das eine oder die mehreren Computergeräte mit dem Speicher gekoppelt sind; worin ein oder mehrere Computergeräte konfiguriert sind, um: eine Vielzahl von Fragmenten für ein dreidimensionales (3D) Modell eines geographischen Standortes zu bestimmen, worin jedes Fragment der Vielzahl von Fragmenten einem Pixel eines gemischten Bildes entspricht und jedes Fragment eine Fragmentfarbe aus dem 3D-Modell hat; die geographisch-räumlichen Lokalisierungsdaten für jedes Fragment feststellen, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheinformationen, die mit dem 3D-Modell verbunden sind; für jedes Fragment der Vielzahl von Fragmenten, eine Pixelfarbe und ein Bild zu identifizieren, basierend zumindest teilweise auf den geographisch-räumlichen Lokalisierungsdaten; ein Mischungsverhältnis zu bestimmen, das zumindest auf einer Position und einer Ausrichtung einer virtuellen Kamera basiert; und das gemischte Bild generiert, basierend zumindest auf dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe.
  2. System nach Anspruch 1, worin ein oder mehrere Computergeräte ferner konfiguriert sind, um die Anzeige des gemischten Bildes zur Verfügung zu stellen.
  3. System nach Anspruch 1, worin das Mischungsverhältnis auf mindestens einer der Position und der Ausrichtung der virtuellen Kamera relativ zum Bild basiert.
  4. System nach Anspruch 1, worin das Pixel des gemischten Bildes einem Bildpunkt einer Anzeige entspricht.
  5. System nach Anspruch 3, worin das Mischungsverhältnis ein Verhältnis einer Menge der Pixelfarbe auf einer Menge der Fragmentfarbe ist.
  6. System nach Anspruch 5, worin sich die Menge der Pixelfarbe erhöht, wenn zumindest eine der Optionen – Position und Ausrichtung – der virtuellen Kamera mit dem Bild ausgerichtet ist.
  7. System nach Anspruch 5, worin sich die Menge der Fragmentfarbe erhöht, wenn sich die virtuelle Kamera vom Bild wegbewegt wird oder wenn zumindest eine der Optionen – Position und Ausrichtung – der virtuellen Kamera nicht mit dem Bild ausgerichtet ist.
  8. System nach Anspruch 1, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um eine Anforderung zu empfangen, betreffend eines Überganges von einem Bild zum anderen zu empfangen.
  9. System nach Anspruch 8, worin das eine oder die mehreren Computergeräte ferner konfiguriert sind, um die Anzeige einer Reihen von gemischten Bildern zur Verfügung zu stellen, die einer Übergangsbahn von einem Bild zum anderen ermöglicht.
  10. Nicht-transitorisches, greifbares, computerlesbares Medium, auf dem Anweisungen gespeichert sind, von einem Computergerät oder von mehreren Computergeräten ausgeführt wird, um ein Verfahren zum Generieren eines gemischten Bildes durchzuführen, worin das Verfahren folgendes umfasst: eine Vielzahl von Fragmenten für ein dreidimensionales (3D) Modell eines geographischen Ortes feststellen, worin jedes Fragment der Vielzahl von Fragmenten einem Pixel des gemischten Bildes entspricht und jedes Fragment hat eine Fragmentfarbe aus dem 3D-Modell; die geographisch-räumlichen Lokalisierungsdaten für jedes Fragment feststellend, basierend zumindest teilweise auf Breitengradinformationen, Längengradinformationen und Höheinformationen, die mit dem 3D-Modell verbunden sind; für jedes Fragment der Vielzahl von Fragmenten, eine Pixelfarbe und ein Bild identifiziert, basierend zumindest teilweise auf weltraumgestützte Lokalisierungsdaten; Ermitteln eines Mischungsverhältnisses basierend auf mindestens einer Position und einer Ausrichtung einer virtuellen Kamera; und Erzeugen des gemischten Bildes basierend auf mindestens dem Mischungsverhältnis, der Pixelfarbe und der Fragmentfarbe.
  11. Das nicht-transitorische, greifbare, computerlesbare Medium nach Anspruch 10, worin das Verfahren des Weiteren die Bereitstellung des gemischten Bildes für die Anzeige umfassend.
DE202015009181.4U 2014-07-17 2015-07-08 Überblendung zwischen Straßenansicht und Erdansicht Active DE202015009181U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/333,678 US9418472B2 (en) 2014-07-17 2014-07-17 Blending between street view and earth view
US14/333,678 2014-07-17

Publications (1)

Publication Number Publication Date
DE202015009181U1 true DE202015009181U1 (de) 2016-11-10

Family

ID=53758523

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202015009181.4U Active DE202015009181U1 (de) 2014-07-17 2015-07-08 Überblendung zwischen Straßenansicht und Erdansicht

Country Status (5)

Country Link
US (2) US9418472B2 (de)
EP (1) EP3170151B1 (de)
CN (1) CN106462997B (de)
DE (1) DE202015009181U1 (de)
WO (1) WO2016010784A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015527B1 (en) 2013-12-16 2018-07-03 Amazon Technologies, Inc. Panoramic video distribution and viewing
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US9418472B2 (en) 2014-07-17 2016-08-16 Google Inc. Blending between street view and earth view
US10104286B1 (en) * 2015-08-27 2018-10-16 Amazon Technologies, Inc. Motion de-blurring for panoramic frames
CN107357939B (zh) * 2017-08-28 2020-10-16 荆门程远电子科技有限公司 一种移动三维虚拟地球系统的关键接口设计方法
US10521962B1 (en) 2018-03-08 2019-12-31 State Farm Mutual Automobile Insurance Company Method and system for visualizing overlays in virtual environments
CN108196586A (zh) * 2018-03-14 2018-06-22 广州亿航智能技术有限公司 无人机控制方法、装置和储存介质
US10955256B2 (en) * 2018-10-26 2021-03-23 Here Global B.V. Mapping system and method for applying texture to visual representations of buildings
CN113892129B (zh) * 2019-05-31 2022-07-29 苹果公司 创建三维外观的虚拟视差
EP4005201A1 (de) * 2019-07-28 2022-06-01 Google LLC Verfahren, systeme und medien zur wiedergabe von immersivem videoinhalt mit fovea-meshes
US11280630B2 (en) * 2019-11-27 2022-03-22 Zoox, Inc. Updating map data
CN111862322B (zh) * 2020-06-30 2023-06-27 北京建筑大学 一种拱轴线提取方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019713A1 (en) 2014-07-17 2016-01-21 Google Inc. Blending between street view and earth view

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10126731A (ja) 1996-10-17 1998-05-15 Toppan Printing Co Ltd 旅行アルバム作成システム
JP3906938B2 (ja) 1997-02-18 2007-04-18 富士フイルム株式会社 画像再生方法及び画像データ管理方法
US6552744B2 (en) 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US6199014B1 (en) 1997-12-23 2001-03-06 Walker Digital, Llc System for providing driving directions with visual cues
US7810037B1 (en) 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
DE60141931D1 (de) 2000-02-21 2010-06-10 Hewlett Packard Co Vergrösserung von Bilddatensätzen
DE10044935B4 (de) 2000-09-12 2010-12-16 Robert Bosch Gmbh Navigationsvorrichtung
US7865306B2 (en) 2000-09-28 2011-01-04 Michael Mays Devices, methods, and systems for managing route-related information
US6351710B1 (en) 2000-09-28 2002-02-26 Michael F. Mays Method and system for visual addressing
US20020122073A1 (en) 2001-03-02 2002-09-05 Abrams David Hardin Visual navigation history
US7096428B2 (en) 2001-09-28 2006-08-22 Fuji Xerox Co., Ltd. Systems and methods for providing a spatially indexed panoramic video
US20030128389A1 (en) 2001-12-26 2003-07-10 Eastman Kodak Company Method for creating and using affective information in a digital imaging system cross reference to related applications
EP1481221B1 (de) 2002-03-01 2010-11-17 TeleCommunication Systems, Inc. Verfahren und vorrichtung zum senden, empfangen und planen von ortsrelevanten informationen
CN100407782C (zh) 2002-09-27 2008-07-30 富士胶片株式会社 相册制作方法及其装置
US7082572B2 (en) 2002-12-30 2006-07-25 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive map-based analysis of digital video content
CN103398719B (zh) * 2004-03-23 2017-04-12 咕果公司 数字地图描绘系统
US7746376B2 (en) 2004-06-16 2010-06-29 Felipe Mendoza Method and apparatus for accessing multi-dimensional mapping and information
US8751156B2 (en) 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
US8207964B1 (en) 2008-02-22 2012-06-26 Meadow William D Methods and apparatus for generating three-dimensional image data models
US7272498B2 (en) 2004-09-30 2007-09-18 Scenera Technologies, Llc Method for incorporating images with a user perspective in navigation
JP4719500B2 (ja) 2004-11-04 2011-07-06 アルパイン株式会社 車載装置
US8626440B2 (en) 2005-04-18 2014-01-07 Navteq B.V. Data-driven 3D traffic views with the view based on user-selected start and end geographical locations
WO2006127660A2 (en) 2005-05-23 2006-11-30 Picateers, Inc. System and method for collaborative image selection
US7746343B1 (en) 2005-06-27 2010-06-29 Google Inc. Streaming and interactive visualization of filled polygon data in a geographic information system
US7617246B2 (en) 2006-02-21 2009-11-10 Geopeg, Inc. System and method for geo-coding user generated content
US8793579B2 (en) 2006-04-20 2014-07-29 Google Inc. Graphical user interfaces for supporting collaborative generation of life stories
US8571580B2 (en) 2006-06-01 2013-10-29 Loopt Llc. Displaying the location of individuals on an interactive map display on a mobile communication device
US20080033641A1 (en) 2006-07-25 2008-02-07 Medalia Michael J Method of generating a three-dimensional interactive tour of a geographic location
US8498497B2 (en) 2006-11-17 2013-07-30 Microsoft Corporation Swarm imaging
US20080215964A1 (en) 2007-02-23 2008-09-04 Tabblo, Inc. Method and system for online creation and publication of user-generated stories
JP4661838B2 (ja) 2007-07-18 2011-03-30 トヨタ自動車株式会社 経路計画装置及び方法、コスト評価装置、並びに移動体
US20090055087A1 (en) 2007-08-07 2009-02-26 Brandon Graham Beacher Methods and systems for displaying and automatic dynamic re-displaying of points of interest with graphic image
JP5044817B2 (ja) 2007-11-22 2012-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間を構築するための画像処理方法、装置
US8131118B1 (en) 2008-01-31 2012-03-06 Google Inc. Inferring locations from an image
US20090210277A1 (en) * 2008-02-14 2009-08-20 Hardin H Wesley System and method for managing a geographically-expansive construction project
JP5011224B2 (ja) * 2008-07-09 2012-08-29 日本放送協会 任意視点映像生成装置及び任意視点映像生成プログラム
US8805110B2 (en) 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
JP5434018B2 (ja) 2008-09-03 2014-03-05 株式会社ニコン 画像表示装置、および画像表示プログラム
US20110211040A1 (en) 2008-11-05 2011-09-01 Pierre-Alain Lindemann System and method for creating interactive panoramic walk-through applications
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
US20120141023A1 (en) 2009-03-18 2012-06-07 Wang Wiley H Smart photo story creation
JP5521374B2 (ja) 2009-04-08 2014-06-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9298345B2 (en) 2009-06-23 2016-03-29 Microsoft Technology Licensing, Llc Block view for geographic navigation
US8015172B1 (en) 2009-07-03 2011-09-06 eBridge, Inc. Method of conducting searches on the internet to obtain selected information on local entities and provide for searching the data in a way that lists local businesses at the top of the results
JP5464955B2 (ja) 2009-09-29 2014-04-09 株式会社ソニー・コンピュータエンタテインメント パノラマ画像表示装置
KR101631497B1 (ko) 2009-11-13 2016-06-27 삼성전자주식회사 디스플레이 장치, 사용자 단말 장치 및 그 방법들
US9766089B2 (en) 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
US20110231745A1 (en) 2010-03-15 2011-09-22 TripAdvisor LLC. Slideshow creator
US8655111B2 (en) 2010-05-13 2014-02-18 Shutterfly, Inc. System and method for creating and sharing photo stories
US20120082401A1 (en) 2010-05-13 2012-04-05 Kelly Berger System and method for automatic discovering and creating photo stories
US20110283210A1 (en) 2010-05-13 2011-11-17 Kelly Berger Graphical user interface and method for creating and managing photo stories
US20120254804A1 (en) 2010-05-21 2012-10-04 Sheha Michael A Personal wireless navigation system
US20120066573A1 (en) 2010-09-15 2012-03-15 Kelly Berger System and method for creating photo story books
US20120092266A1 (en) 2010-10-14 2012-04-19 Motorola Mobility, Inc. Method and Apparatus for Providing a Navigation Path on a Touch Display of a Portable Device
EP2643822B1 (de) * 2010-11-24 2017-03-22 Google, Inc. Geführte navigation durch geolokalisierte panoramen
US20120246562A1 (en) 2011-03-25 2012-09-27 Leslie Gable Maness Building a customized story
JP2013003048A (ja) 2011-06-20 2013-01-07 Sony Corp 経路探索装置、経路探索方法、及びプログラム
US8706397B2 (en) 2011-07-11 2014-04-22 Harman International Industries, Incorporated System and method for determining an optimal route using aggregated route information
CN102509335B (zh) * 2011-09-23 2015-08-19 深圳Tcl新技术有限公司 基于OpenGL的透明/半透明显示处理装置及方法
US9116011B2 (en) 2011-10-21 2015-08-25 Here Global B.V. Three dimensional routing
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
EP2859535A4 (de) 2012-06-06 2016-01-20 Google Inc System und verfahren zur bereitstellung von inhalten für einen relevanten punkt
US9116596B2 (en) 2012-06-10 2015-08-25 Apple Inc. Sharing images and comments across different devices
US9488489B2 (en) 2012-09-28 2016-11-08 Google Inc. Personalized mapping with photo tours
CN103971399B (zh) * 2013-01-30 2018-07-24 深圳市腾讯计算机系统有限公司 街景图像过渡方法和装置
US20140330814A1 (en) 2013-05-03 2014-11-06 Tencent Technology (Shenzhen) Company Limited Method, client of retrieving information and computer storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019713A1 (en) 2014-07-17 2016-01-21 Google Inc. Blending between street view and earth view

Also Published As

Publication number Publication date
EP3170151A1 (de) 2017-05-24
EP3170151B1 (de) 2019-12-18
WO2016010784A1 (en) 2016-01-21
US9418472B2 (en) 2016-08-16
US20160019713A1 (en) 2016-01-21
CN106462997B (zh) 2019-09-10
CN106462997A (zh) 2017-02-22
US9898857B2 (en) 2018-02-20
US20160321837A1 (en) 2016-11-03

Similar Documents

Publication Publication Date Title
DE202015009181U1 (de) Überblendung zwischen Straßenansicht und Erdansicht
DE202015009128U1 (de) Generieren von Routenführungs-Anweisungsvorschauen
DE202009019138U1 (de) Architekturen zur Erstellung und Darstellung von zeitabhängigen Bildern
DE69907644T2 (de) Echtzeit system zur dreidimensionalen realistischen virtuellen-bildanzeige
DE202012013426U1 (de) Integrieren von Karten und Straßenansichten
DE202012013450U1 (de) Beschriftungspositionierbildwiedergabesystem zur Reduzierung des Kriechens bei Zoom-Aktivitäten
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
EP3675067A1 (de) Verfahren zur darstellung von virtueller information in einer realen umgebung
DE102011115739A1 (de) Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
DE202011110887U1 (de) Wiedergeben und navigieren fotografischer Panoramen mit Tiefeninformationen in einem geographischen Informationssystem
DE202014010937U1 (de) Überlagerung zweidimensionaler Kartendaten auf einer dreidimensionalen Szene
DE112017005059T5 (de) System und verfahren zum projizieren graphischer objekte
DE112016002350T5 (de) Anzeigevorrichtung, Informationsverarbeitungssystem und Steuerverfahren
US7616828B2 (en) Geospatial modeling system providing geospatial model data target point filtering based upon radial line segments and related methods
DE19549306A1 (de) Verfahren und Vorrichtung zur bildlichen Darstellung raumbezogener Daten
DE202015009182U1 (de) Ausrichten von Panoramaaufnahmen und Luftaufnahmen
DE202008018626U1 (de) System zum Betrachten von Panoramabildern
DE202014010881U1 (de) Bereitstellen von Indooreinrichtungs-Informationen auf einer digitalen Karte
DE202015009167U1 (de) System zur Geolokalisierung von Bildern
DE112016001829T5 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
EP1789755A1 (de) Informationspunkt
DE112016003134T5 (de) Anzeigen von Objekten basierend auf einer Vielzahl von Modellen
DE202015009139U1 (de) Bildmodifikation
DE202013012446U1 (de) Strukturüberblendung für weichen Übergang zwischen unterschiedlichen Detaillierungsgraden in Grafikanwendungen
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte

Legal Events

Date Code Title Description
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years