DE112015005191T5 - Ausrichten von Panoramaaufnahmen und Luftaufnahmen - Google Patents

Ausrichten von Panoramaaufnahmen und Luftaufnahmen Download PDF

Info

Publication number
DE112015005191T5
DE112015005191T5 DE112015005191.0T DE112015005191T DE112015005191T5 DE 112015005191 T5 DE112015005191 T5 DE 112015005191T5 DE 112015005191 T DE112015005191 T DE 112015005191T DE 112015005191 T5 DE112015005191 T5 DE 112015005191T5
Authority
DE
Germany
Prior art keywords
image
aerial
panoramic
computing devices
aerial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112015005191.0T
Other languages
English (en)
Inventor
Samuel Felix De Sousa Jr.
Dennis Strelow
Craig Lewin Robinson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112015005191T5 publication Critical patent/DE112015005191T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

Systeme und Verfahren zum Ausrichten von Panoramaaufnahmen eines geografischen Bereichs, die aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurden, und von Luftaufnahmen, die aus einer schrägen Perspektive erfasst wurden, werden bereitgestellt. Insbesondere kann eine Fassadenebene in einem Panoramabild zumindest teilweise auf Basis von mit dem Bild assoziierten geometrischen Daten erkannt werden. Das Panoramabild kann auch eine assoziierte Bildpose aufweisen. Ein Luftbild, das die gleiche Fassade zeigt, kann dann identifiziert werden. Das Luftbild kann mit einer Bildpose und geometrischen Daten der gezeigten Aufnahmen assoziiert werden. Das Panoramabild kann in ein Bild verzerrt werden, das eine mit dem Luftbild assoziierte Perspektive aufweist. Eine oder mehrere Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild können unter Verwendung einer Merkmalsabgleichstechnik identifiziert werden. Die abgeglichenen Merkmale können verwendet werden, um das Panoramabild mit dem Luftbild abzugleichen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft allgemein die Bildverarbeitung und insbesondere das Ausrichten von Panoramaaufnahmen und Luftaufnahmen.
  • HINTERGRUND
  • Panoramaaufnahmen eines geografischen Bereichs können von mobilen Datenerhebungseinheiten von einer Perspektive auf oder nahe Bodenhöhe erfasst werden. Diese Bilder können eine wertvolle Ressource zum Verfeinern von Darstellungen eines geografischen Bereichs sein, die zum Beispiel von einem geografischen Informationssystem wie einem Kartografiedienst oder einem virtuellen Globus bereitgestellt werden. Panoramaaufnahmen können zum Beispiel verwendet werden, um hochauflösende dreidimensionale Modelle verschiedener Sehenswürdigkeiten, Gebäude, Objekte, verschiedenem Gelände usw. in einem geografischen Informationssystem zu verfeinern oder zu generieren. Die Panoramaaufnahmen können auch verwendet werden, um interaktive dreidimensionale Aufnahmen eines geografischen Bereichs von einer Straßen- oder Bodenhöhe bereitzustellen. Die Panoramaaufnahmen können assoziierte Kameraparameter aufweisen, wie eine Bildpose und geometrische Informationen in Bezug auf den in den Aufnahmen gezeigten geografischen Bereich.
  • Panoramaaufnahmen können in einer geografischen Informationssystemdatenbank gespeichert werden. Geografische Informationssystemdatenbanken können auch Luftaufnahmen eines geografischen Bereichs speichern. Die Luftaufnahmen können zum Beispiel von einem Flugzeug erfasst werden und können zum Beispiel eine geneigte Perspektive des geografischen Bereichs von einem von mehreren kanonischen Blickwinkeln, wie den kanonischen Blickwinkeln Nord, Süd, Ost und West bereitstellen. Die Datenbank der Luftaufnahmen kann mit Poseninformationen assoziiert sein. Zusätzlich kann die Datenbank der Luftaufnahmen eine assoziierte dreidimensionale Geometrie des in den Bildern dargestellten Gegenstands aufweisen.
  • KURZDARSTELLUNG
  • Aspekte und Vorteile von Ausführungsformen der vorliegenden Erfindung werden teilweise in der folgenden Beschreibung dargelegt werden oder können aus der Beschreibung erlernt werden oder können durch die Praxis der Ausführungsformen erlernt werden.
  • Ein exemplarischer Aspekt der vorliegenden Offenbarung richtet sich auf ein computerimplementiertes Verfahren des Ausrichtens von Panoramaaufnahmen an Luftbildern. Das Verfahren beinhaltet ein Zugreifen, durch ein oder mehrere Computergeräte, auf ein Panoramabild, das von einer Perspektive auf oder nahe Bodenhöhe erfasst wurde. Das Panoramabild kann mit einer ersten Pose und ersten geometrischen Daten assoziiert sein. Das Verfahren beinhaltet ferner ein Erkennen, durch das eine oder die mehreren Computergeräte, einer Fassadenebene im Panoramabild zumindest teilweise auf Basis der ersten geometrischen Daten. Das Verfahren beinhaltet ferner ein Identifizieren, durch das eine oder die mehreren Computergeräte, eines Luftbilds zumindest teilweise auf Basis der erkannten Fassadenebene. Das Luftbild zeigt die Fassadenebene und ist mit einer zweiten Pose und zweiten geometrischen Daten assoziiert. Das Verfahren beinhaltet ferner ein Transformieren, durch das eine oder die mehreren Computergeräte, des Panoramabilds in ein verzerrtes Bild durch Projizieren einer Bildebene des Panoramabilds auf eine mit dem Luftbild assoziierte Bildebene zumindest teilweise auf Basis der ersten geometrischen Daten. Das Verfahren ferner beinhaltet ein Identifizieren, durch das eine oder die mehreren Computergeräte, einer oder mehrerer Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild, und ein Ausrichten, durch das eine oder die mehreren Computergeräte, des Panoramabilds am Luftbild zumindest teilweise auf Basis der einen oder mehreren Merkmalsübereinstimmungen.
  • Andere Aspekte der vorliegenden Offenbarung richten sich auf Systeme, Vorrichtungen, greifbare, nicht-flüchtige computerlesbare Medien, Benutzeroberflächen und Geräte zum Ausrichten von Panoramaaufnahmen und Luftaufnahmen.
  • Diese und andere Merkmale, Aspekte und Vorteile verschiedener Ausführungsformen werden besser in Bezug auf die folgende Beschreibung und angefügten Ansprüche verstanden werden. Die beiliegenden Zeichnungen, die in diese Spezifikation integriert wurden und einen Teil dieser Spezifikation ausmachen, veranschaulichen die Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung dazu, um die damit verbundenen Prinzipien zu erklären.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Eine ausführliche Erörterung der Ausführungsformen, die auf Fachleute auf dem Gebiet gerichtet sind, wird in der Beschreibung dargelegt, die Bezug auf die beigefügten Figuren nimmt, in denen:
  • 1 ein exemplarisches Panoramabild, das eine Gebäudefassade, und ein exemplarisches Luftbild, das die gleiche Fassade zeigt, bereitstellt;
  • 2 ein exemplarisches Luftbild und eine stereobasierte dreidimensionale Tiefenkarte bereitstellt, die mit dem Luftbild assoziiert ist;
  • 3 eine exemplarische mobile Erhebungseinheit zum Erfassen von Panoramaaufnahmen zeigt;
  • 4 ein Ablaufdiagramm eines exemplarischen Verfahrens zum Ausrichten von Merkmalen zwischen einem verzerrten Bild und einem Luftbild nach exemplarischen Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 5 eine exemplarische erfasste Fassadenebene nach exemplarischen Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 6 ein Ablaufdiagramm eines exemplarischen Verfahrens zum Transformieren eines Panoramabilds in ein verzerrtes Bild nach exemplarischen Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 7 ein exemplarisches Luftbild einer Fassade und ein verzerrtes Bild der gleichen Fassade nach exemplarischen Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 8 ein Ablaufdiagramm eines exemplarischen Verfahrens zum Abgleichen von Merkmalen zwischen einem verzerrten Bild und einem Luftbild nach exemplarischen Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 9A exemplarische Merkmalsübereinstimmungen zwischen einem verzerrten Bild und einem Luftbild nach exemplarischen Ausführungsformen der vorliegenden Offenbarung zeigt;
  • 9B eine exemplarische einzelne Merkmalsübereinstimmung zwischen einem verzerrten Bild und einem Luftbild nach exemplarischen Ausführungsformen der vorliegenden Offenbarung zeigt;
  • 10 ein exemplarisches Computersystem zeigt, das verwendet werden kann, um die Verfahren und Systeme nach exemplarischen Ausführungsformen der vorliegenden Offenbarung zu implementieren.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Bezug wird nun im Detail auf Ausführungsformen genommen werden, von denen ein oder mehrere Beispiele in den Zeichnungen dargestellt sind. Jedes Beispiel wird zur Erläuterung der Ausführungsformen bereitgestellt, nicht zur Beschränkung der Erfindung. Tatsächlich wird dem Fachmann ersichtlich, dass diverse Modifikationen und Variationen an den Ausführungsformen vorgenommen werden können, ohne vom Umfang oder Gedanken der vorliegenden Offenbarung abzuweichen. Zum Beispiel können Merkmale, die als ein Teil einer Ausführungsform veranschaulicht oder beschrieben sind, in einer anderen Ausführungsform verwendet werden, um eine noch weitere Ausführungsform zu ergeben. Deshalb ist beabsichtigt, dass Aspekte der vorliegenden Offenbarung solche Modifikationen und Variationen abdecken.
  • Überblick
  • Beispielhafte Aspekte der vorliegenden Offenbarung richten sich auf ein Ausrichten von Panoramaaufnahmen, die von einer Perspektive auf oder nahe Bodenhöhe erfasst wurde, mit Luftaufnahmen, die zum Beispiel aus einer schrägen Perspektive erfasst wurden. Wie hierin verwendet, können Panoramaaufnahmen ein Bild, das eine Panoramaansicht (z. B. eine Weitwinkelansicht) eines geografischen Bereichs bereitstellt, und/oder ein oder mehrere Bilder (z. B. nicht zusammengesetzte Bilder) beinhalten, die beim Generieren von Bildern verwendet werden, die eine Panoramaansicht eines geografischen Bereichs bereitstellen. Das Ausrichten eines Panoramabilds mit einem Luftbild kann schwierig sein, da die Bilder oft drastisch unterschiedliche Blickwinkel besitzen. Dies kann Unterschiede in den Darstellungen in den Bildern verursachen. Obwohl zum Beispiel ein Panoramabild und ein Luftbild beide die gleiche Gebäudefassade darstellen können, kann die Ansicht der Fassade wie im Luftbild gezeigt verkürzt, verdeckt oder anderweitig unscharf sein, wenn sie mit der Ansicht der Fassade wie im Panoramabild gezeigt verglichen wird. Eine andere Schwierigkeit beim Ausrichten eines Panoramabilds an einem Luftbild tritt auf, wenn die Bilder zu verschiedenen Zeiten erfasst werden. Die Bilder können zum Beispiel zu verschiedenen Tageszeiten oder zu verschiedenen Jahreszeiten erfasst werden. Dies kann bewirken, dass die Bilder verschiedene Schattierungen und Farben aufweisen. Zusätzlich kann sich die Geografie selbst zwischen den Zeiten verändern, zu denen die Bilder erfasst wurden, was bewirkt, dass die Bilder verschiedene Geografien zeigen. Eine Gebäudefassade kann zum Beispiel umgebaut werden, nachdem ein erstes Bild erfasst wurde, aber bevor ein zweites Bild erfasst wurde, was bewirkt, dass die Bilder verschiedene Variationen der gleichen Fassade zeigen.
  • Angesichts der oben beschriebenen einzigartigen Herausforderungen stellen die offenbarten Ausführungsformen Merkmale zur effizienten und genauen Ausrichtung von Panoramaaufnahmen und Luftaufnahmen bereit. Spezifische Algorithmen werden implementiert. um Kameraparameter und mit sowohl Panoramabildern als auch Luftbildern assoziierte geometrische Daten in einem Bemühen einzusetzen, die Bilder abzugleichen. Verbesserte dreidimensionale Modelle, die aus der Implementierung der offenbarten Merkmale und Algorithmen resultieren, sind zur allgemeinen Bezugnahme und Analyse von städtischen Szenen nützlich. Insbesondere kann ein genaues und effizientes Abgleichen von Panorama- und Luftbildern für eine genauere Ausrichtung der Bilder sorgen. Die genaue Ausrichtung dieser Bilder kann zum Beispiel helfen, geografische Informationssysteme wie Kartografiedienste oder virtuelle Globen besser aufzufüllen.
  • Nach exemplarischen Aspekten der vorliegenden Offenbarung werden mit einer ersten Perspektive assoziierte Bilder und mit einer zweiten Perspektive assoziierte Bilder ausgerichtet. Panoramaaufnahmen, die aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurden, können zum Beispiel mit Luftaufnahmen ausgerichtet werden. In einem bestimmten Beispiel kann auf ein Panoramabild, das aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurde, zur Ausrichtung mit Luftaufnahmen zugegriffen werden. Das Panoramabild kann mit einer Pose assoziiert sein. Wie hierin verwendet, bezeichnet die Pose eines Bilds die Position und/oder Orientierung einer Kamera, wenn sie ein Bild erfasst, relativ zu einem Bezugspunkt. Das Panoramabild kann auch mit einer dreidimensionalen Geometrie der im Panoramabild gezeigten Aufnahme assoziiert sein. Die dreidimensionale Geometrie kann zum Beispiel durch Daten bestimmt werden, die durch einen Laser-Entfernungsmesser gesammelt wurden, wie LIDAR-Daten. Die dreidimensionale Geometrie kann zum Beispiel auch durch Structure-from-Motion-Techniken bestimmt werden.
  • Sobald auf das Panoramabild zugegriffen wurde, kann eine Fassadenebene im Panoramabild erkannt werden. Die Fassadenebene kann zumindest teilweise auf Basis der dreidimensionalen Geometrie der im Bild gezeigten Aufnahmen erkannt werden. Ein Luftbild kann dann zumindest teilweise auf Basis der erkannten Fassadenebene identifiziert werden. Das Luftbild kann die gleiche Gebäudefassade wie das Panoramabild zeigen und kann zum Beispiel aus einer schrägen Perspektive erfasst werden. Das identifizierte Luftbild kann das Luftbild mit der am wenigsten verkürzten, am geringsten verdeckten Ansicht der im Panoramabild gezeigten Gebäudefassade sein. Das Luftbild kann eine assoziierte Kamerapose aufweisen. Das Luftbild kann auch mit einer dreidimensionalen Geometrie der im Luftbild gezeigten Aufnahme assoziiert sein, wie der Stadt oder dem Ort, in dem sich die Gebäudefassade befindet. Die dreidimensionale Geometrie kann zum Beispiel eine stereobasierte Tiefenkarte beinhalten.
  • Sobald auf das Panoramabild zugegriffen wurde und das Luftbild identifiziert wurde, kann das Panoramabild in ein verzerrtes Bild transformiert werden, das eine mit dem Luftbild assoziierte Perspektive aufweist. Das Panoramabild kann zum Beispiel zum Luftbild verzerrt werden, indem die Pose des Luftbilds, die Pose des Panoramabilds und die Position der erkannten Fassadenebene verwendet werden, um eine Bildebene des Panoramabilds auf eine mit dem Luftbild assoziierte Bildebene zu projizieren.
  • Eine oder mehrere Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild können dann unter Verwendung einer Merkmalsabgleichstechnik identifiziert werden. Die Merkmalsabgleichstechnik kann zum Beispiel ein Extrahieren einer oder mehrerer Deskriptoren des verzerrten Bilds und des Luftbilds und ein Abgleichen der entsprechenden Deskriptoren im verzerrten Bild und im Luftbild umfassen. Die abgeglichenen Merkmale können dann verwendet werden, um eine geometrische Transformation zu finden, die das verzerrte Bild und das Luftbild in Beziehung setzen.
  • Sobald die geometrische Transformation gefunden ist, kann das Panoramabild am Luftbild auf Basis der geometrischen Transformation ausgerichtet werden. Die Ausrichtung kann zum Beispiel durch Erstellen von Randbedingungen durchgeführt werden, die dreidimensionale Fassadenpunkte, die mit der erfassten Fassadenebene assoziiert sind, und ihre zweidimensionale Lage im Panoramabild in Beziehung setzen. Als ein weiteres Beispiel kann die Ausrichtung durch Erstellen von Randbedingungen durchgeführt werden, die zweidimensionale Lagen in den Panorama- und Luftbildern in Beziehung setzen. Die Ausrichtung kann verbessert werden, indem die mit dem Panoramabild assoziierte Pose unter Verwendung der einen oder mehreren Merkmalsübereinstimmungen justiert wird. Ein Bündelausgleichungsalgorithmus kann zum Beispiel verwendet werden, um die Pose des Panoramabilds zu justieren und im Panoramabild gezeigte Objekte zumindest teilweise auf Basis der abgeglichenen Merkmale zwischen dem verzerrten Bild und dem Luftbild zu georeferenzieren.
  • Sobald das Panoramabild und das Luftbild ausgerichtet worden sind, kann ein dreidimensionales Modell des in den Bildern gezeigten geografischen Bereichs zumindest teilweise auf Basis der Ausrichtung der Bilder aktualisiert werden. Das aktualisierte dreidimensionale Modell kann dann zum Beispiel in einem geografischen Informationssystem gespeichert werden, wo es von einem Benutzer zum Beispiel eines mobilen Computergeräts angefordert und an diesen übertragen werden kann.
  • Verschiedene Implementierungen der vorliegenden Offenbarung können zum Beispiel ein Ausschließen des Extrahieren von Deskriptoren an mit Vegetation assoziierten Pixeln von der offenbarten Merkmalsabgleichstechnik beinhalten. Weitere Implementierungen können ein Ausschließen des Extrahierens von Deskriptoren an Pixeln beinhalten, die nicht mit der Fassadenebene assoziiert sind.
  • Eine weitere Implementierung der vorliegenden Offenbarung kann das Extrahieren von Deskriptoren an Pixelbereichen des verzerrten Bilds ausschließen, die große Mengen an Unschärfe besitzen. Große Streifen von unscharfen Pixeln in einem Bild können bewirken. dass dieser Bereich unerkennbar ist, was Schwierigkeiten beim Merkmalsabgleich herstellt. In einer alternativen Ausführungsform können Unschärfen durch Transformieren eines nicht zusammengesetzten Bilds einer Fassadenebene anstatt eines vollständigen Panoramabilds in ein verzerrtes Bild reduziert werden. Verzerrte Bilder, die aus nicht zusammengesetzten Bildern resultieren, können geringere Unschärfe als entsprechende verzerrte Bilder aufweisen, die aus vollständigen Panoramabildern resultieren.
  • Nach einer exemplarischen Ausführungsform erhebt eine auf einem Transportgerät bereitgestellte mobile Datenerhebungseinheit Panoramaaufnahmen auf Straßenhöhe. Die mobile Datenerhebungseinheit erhebt ferner dreidimensionale Geometriedaten, die mit den Panoramaaufnahmen assoziiert sind. Auf ein bestimmtes Panoramabild auf Straßenhöhe wird zugegriffen, zusammen mit der Bildpose und den mit dem Bild assoziierten dreidimensionalen Geometriedaten. Auf Basis der Geometriedaten wird eine Fassadenebene im Bild auf Straßenhöhe erkannt. Sobald eine Fassadenebene erkannt wurde, wird ein Luftbild identifiziert, das die gleiche Fassadenebene zeigt. Das identifizierte Luftbild weist die am wenigste verkürzte und am geringsten verdeckte Ansicht der erkannten Fassadenebene auf. Das Panoramabild wird dann durch Projizieren einer Bildebene des Panoramabilds auf eine mit dem Luftbild assoziierte Bildebene in ein verzerrtes Bild transformiert. Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild werden dann unter Verwendung einer Merkmalsabgleichstechnik identifiziert. Sobald die Merkmalsübereinstimmungen identifiziert wurden, kann das Panoramabild am Luftbild ausgerichtet werden. Die Bilder werden durch Erstellen von Randbedingungen ausgerichtet, die dreidimensionale Fassadenpunkte, die mit der Fassadenebene assoziiert sind, und ihre zweidimensionale Lage im Panoramabild in Beziehung setzen. Alternativ können die Bilder durch Erstellen von Randbedingungen ausgerichtet werden, die zweidimensionale Lagen im Panoramabild und im Luftbild in Beziehung setzen.
  • Beispielhafte Panoramaaufnahmen und Luftaufnahmen
  • 1 zeigt ein exemplarisches Panoramabild 100, das eine Gebäudefassade 102 zeigt, und ein exemplarisches Luftbild 104, das die gleiche Fassade 102 zeigt. Das Panoramabild 100 wird aus einer Perspektive auf oder nahe Bodenhöhe erfasst. Das Panoramabild 100 kann ein von einer auf einem Transportgerät bereitgestellten mobilen Datenerhebungseinheit erfasstes Bild sein. Das Panoramabild 100 kann eine assoziierte Kamerapose und assoziierte geometrische Daten aufweisen. Die geometrischen Daten können eine dreidimensionale Geometrie sein, die zum Beispiel durch Daten bestimmt wurde, die durch einen Laser-Entfernungsmesser gesammelt wurden, wie LIDAR-Daten. Das Panoramabild 100 kann genau georeferenziert und gespeichert werden, zum Beispiel in einem geografischen Informationssystem. Insbesondere kann das Panoramabild 100 gespeichert und nach einer geografischen Position indiziert werden, die von einem Positionierungssystem erfasst wurde, das sich auf einem Transportgerät befindet. Zusätzlich kann das Panoramabild 100 über Texture Mapping auf eine Oberfläche wie eine Kugel oder einen Zylinder abgebildet werden.
  • Das Luftbild 104 zeigt die Fassade 102 aus einem unterschiedlichen Blickwinkel. Insbesondere zeigt das Luftbild 104 die Fassade 102 aus einer relativ zur Fassade 102 schrägen Perspektive. Das Luftbild 104 kann von einem Bilderfassungsgerät erfasst werden, das auf einem Luftfahrzeug wie zum Beispiel einem Helikopter oder einem Flugzeug montiert ist. Das Luftbild 104 kann auch eine Kamerapose und assoziierte geometrische Daten aufweisen. Die assoziierten geometrischen Daten können zum Beispiel eine dreidimensionale Geometrie des im Luftbild 104 gezeigten geografischen Bereichs sein. Die dreidimensionale Geometrie kann in einer stereobasierten Tiefenkarte des im Luftbild gezeigten geografischen Bereichs gezeigt werden. Das Luftbild kann georeferenziert und gespeichert werden, zum Beispiel in einem geografischen Informationssystem.
  • Insbesondere kann ein geografisches Informationssystem Luftaufnahmen eines geografischen Bereichs beinhalten, die entlang verschiedener kanonischer Blickwinkel des geografischen Bereichs erfasst wurden, wie entlang der Nord-, Süd, Ost- und Westrichtungen. Die Luftaufnahmen können gespeichert und nach geografischen Koordinaten indiziert werden. Die Luftaufnahmen können verwendet werden, um einem Benutzer des geografischen Informationssystems eine interaktive Darstellung des geografischen Bereichs aus einer schrägen Perspektive bereitzustellen.
  • 2 zeigt ein Luftbild 110, das die Fassade 102 und den umgebenden geografischen Bereich zeigt. Das Luftbild 110 ist aus einer relativ zur Fassade 102 schrägen Perspektive erfasst und weist einen anderen Blickwinkel als das Panoramabild 100 und das Luftbild 104 auf. 2 zeigt ferner eine Tiefenkarte 112. Das Luftbild 110 kann zum Beispiel durch eine Stereokamera erfasst werden und die Tiefenkarte 112 kann unter Verwendung von Stereoabgleichstechniken generiert werden. Andere Techniken können verwendet werden, um die Tiefenkarte 112 zu generieren, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Structure-from-Motion-Techniken können zum Beispiel verwendet werden, um die Tiefenkarte 112 zu generieren.
  • Die Tiefenkarte 112 zeigt die dreidimensionale Geometrie des im Luftbild 110 gezeigten geografischen Bereichs, die die der Fassade 102 beinhaltet. Die von der Tiefenkarte 112 generierte dreidimensionale Geometrie kann mit dem Luftbild 110 assoziiert werden und zum Beispiel in einem geografischen Informationssystem gespeichert werden, wie oben beschrieben.
  • 3 zeigt eine mobile Datenerhebungseinheit 120, die auf einem Transportgerät 127 bereitgestellt wird. Die mobile Datenerhebungseinheit 120 kann eine Kombination von Sensoren oder Datenerhebungsgeräten wie zum Beispiel, aber nicht beschränkt auf Kameras, die zweidimensionale (2D) Fotos oder Videos erheben können, und Laserscanner beinhalten, die terrestrische LIDAR-Daten erheben können. Die Kombination von Sensoren und Datenerhebungseinheiten kann verwendet werden, um eine dreidimensionale Punktwolke zu erstellen, die verwendet werden kann, um eine dreidimensionale Geometrie der Gebäudefassade 124 zu generieren. Das Transportgerät 127 kann eine Kombination von Sensoren oder anderen Geräten beinhalten, wie zum Beispiel, aber nicht beschränkt auf ein Positionierungssystem (z. B. ein GPS-System oder ein anderes Positionierungssystem), einen Beschleunigungsmesser, ein Gyroskop und einen Raddrehzahlsensor. Die Kombination von Sensoren kann verwendet werden, um Positionsinformationen der mobilen Datenerhebungseinheit 120 zu bestimmen.
  • Beispielhafte Verfahren zum Ausrichten von Panoramaaufnahmen mit Luftaufnahmen
  • 4 zeigt ein Ablaufdiagramm eines exemplarischen Verfahrens (200) zum Ausrichten eines Panoramabilds und eines Luftbilds. Verfahren (200) kann durch eines oder mehrere Computergeräte, wie das eine oder die mehreren in 10 dargestellten Computergeräte ausgeführt werden. Darüber hinaus bildet 4 Schritte ab, die zu Darstellungs- und Erörterungszwecken in einer bestimmten Reihenfolge ausgeführt werden müssen. Durchschnittsfachleute werden unter Verwendung der hierin bereitgestellten Offenbarungen verstehen, dass die verschiedenen Schritte eines beliebigen der hierin offenbarten Verfahren auf verschiedene Weisen weggelassen, adaptiert, modifiziert, umgeordnet oder erweitert werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen.
  • In (202) kann das Verfahren (200) ein Zugreifen auf ein Panoramabild zur Ausrichtung mit Luftaufnahmen beinhalten. Das Panoramabild kann zum Beispiel eine Gebäudefassade zeigen. Das Panoramabild kann eine assoziierte Kamerapose und assoziierte geometrische Daten aufweisen. Die Pose kann durch eine Kombination von Sensoren und anderen Geräten bestimmt werden, die sich auf einem Transportgerät befinden, wie zum Beispiel, aber nicht beschränkt auf eine GPS-Einheit, einen Beschleunigungsmesser und ein Gyroskop. Die assoziierten geometrischen Daten können eine dreidimensionale Geometrie der im Panoramabild gezeigten Aufnahmen sein.
  • In (204) kann das Verfahren (200) ein Erkennen einer Fassadenebene im Panoramabild beinhalten. Die Fassadenebene kann zumindest teilweise auf Basis der dreidimensionalen Geometrie der im Panoramabild gezeigten Aufnahmen erkannt werden. Insbesondere kann die Fassadenebene durch Verwenden der dreidimensionalen Geometrie erkannt werden, um vertikale planare Polygone zu identifizieren, die der im Panoramabild gezeigten Gebäudefassade entsprechen.
  • 5 zeigt eine exemplarische erkannte Fassadenebene 302 in einem Panoramabild 300, das aus einer Perspektive auf oder nahe Bodenhöhe nach einer exemplarischen Ausführungsform der vorliegenden Offenbarung erfasst wurde. Die Fassadenebene 302 wird auf Basis der dreidimensionalen Geometrie erkannt, die mit dem Panoramabild 300 assoziiert ist. Die Fassadenebene 302 kann zum Beispiel durch Verwenden der dreidimensionalen Geometrie erkannt werden, um vertikale planare Polygone zu identifizieren, die einer Gebäudefassade entsprechen. Erkannte Polygone, die zu klein, nicht vertikal oder anderweitig ungeeignet sind, können ausgefiltert werden, um eine Erkennung der Fassadenebene 302 besser zu ermöglichen.
  • Unter erneuter Bezugnahme auf 4 in (206) kann Verfahren (200) ein Identifizieren eines Luftbilds beinhalten. Das Luftbild kann zumindest teilweise auf Basis der erkannten Fassadenebene von (204) identifiziert werden. Auf ein Panoramabild kann zum Beispiel zur Ausrichtung mit Luftaufnahmen zugegriffen werden. Die Lage des im Panoramabild gezeigten geografischen Bereichs kann zumindest teilweise auf Basis der assoziierten Pose und geometrischen Daten des Panoramabilds bestimmt werden. Ein Satz von Kandidaten-Luftbildern, die den gleichen geografischen Bereich zeigen, kann vom geografischen Informationssystem zur Ausrichtung mit dem Panoramabild erhalten werden. Die erhaltenen Kandidaten-Luftbilder können auf Basis ihrer jeweiligen Posen und geometrischen Daten ausgewählt werden. Insbesondere können eine Pose und geometrische Daten, die mit einem Luftbild assoziiert sind, verwendet werden, um zu bestimmen, ob das Luftbild den gleichen geografischen Bereich wie das Panoramabild zeigt.
  • Aus dem Satz von Kandidaten-Luftbildern kann das Luftbild mit der am wenigsten verkürzten und am geringsten verdeckten Ansicht der Gebäudefassade, die im Panoramabild gezeigt wird, zur Ausrichtung mit dem Panoramabild identifiziert werden. In einer alternativen Ausführungsform kann das Luftbild mit der am wenigsten verkürzten und am wenigsten verdeckten Ansicht des bestimmten Bereichs der Gebäudefassade, die im Panoramabild erkennbar ist, zur Ausrichtung mit dem Panoramabild identifiziert werden. In noch einer anderen alternativen Ausführungsform kann das Luftbild zumindest teilweise auf Basis einer Ähnlichkeit der Ansichtsrichtung des Panoramabilds identifiziert werden. Das Identifizieren eines Luftbilds auf Basis der Ansichtsrichtung kann eine Bildähnlichkeit in der Azimutrichtung ermöglichen, was zu einem effizienteren und genaueren Merkmalsabgleich führen kann.
  • In (208) kann das Verfahren (200) ein Transformieren des Panoramabilds in ein verzerrtes Bild beinhalten, das eine mit dem Luftbild assoziierte Perspektive aufweist. Das Panoramabild kann zum Beispiel in eine mit dem Luftbild assoziierte Perspektive verzerrt werden, indem die Pose des Luftbilds, die Pose des Panoramabilds und die Position der erkannten Fassadenebene verwendet werden, um die Fassadenebene auf eine mit dem Luftbild assoziierte Bildebene zu projizieren.
  • 6 zeigt ein Ablaufdiagramm eines exemplarischen Verfahrens (400) zum Transformieren eines Panoramabilds in ein verzerrtes Bild nach exemplarischen Ausführungsformen der vorliegenden Offenbarung. In (402) kann das Verfahren (400) ein Projizieren einer erkannten Fassadenebene in ein Luftbild beinhalten. Die erkannte Fassadenebene kann einer im Panoramabild gezeigten Gebäudefassade entsprechen. In (404) kann das Verfahren (400) ein Identifizieren eines Begrenzungsrahmens der Fassadenebene relativ zum Luftbild beinhalten. In (406) kann das Verfahren (400) ein Rückprojizieren jedes Pixels im Begrenzungsrahmen auf einen entsprechenden dreidimensionalen Punkt auf der erkannten Fassadenebene beinhalten. In (408) kann das Verfahren (400) ein erneutes Projizieren jedes dreidimensionalen Punkts auf der Fassadenebene in einen entsprechenden Punkt im Panoramabild beinhalten. Die Farbe für jedes Pixel im verzerrten Bild kann zum Beispiel auf dem RGB-Wert für jeden entsprechenden Punkt im Panoramabild basiert sein. Andere Techniken zum Transformieren eines Panoramabilds in ein verzerrtes Bild, das eine mit einem Luftbild assoziierte Perspektive aufweist, können verwendet werden, ohne vom Umfang der vorliegenden Offenbarung abzuweichen.
  • 7 zeigt ein Luftbild 500 der Fassade 102. 7 zeigt ferner ein verzerrtes Bild 502. Das verzerrte Bild 502 wird unter Einsatz der Pose eines Luftbilds 500, der Pose des Panoramabilds 300 und der Position der Fassadenebene 302 erstellt, um das Panoramabild 300 in das verzerrte Bild 502 zu transformieren, das eine mit dem Luftbild 500 assoziierte Perspektive aufweist. Insbesondere wird das Panoramabild 300 durch Projizieren der Fassadenebene 302 des Panoramabilds 300 auf eine mit dem Luftbild 500 assoziierte Bildebene in das verzerrte Bild 502 transformiert.
  • Auch wenn, wie durch 7 bewiesen, ein verzerrtes Bild eine Ansicht aufweist, die eng mit einem Luftbild übereinstimmt, kann eine weitere Deckung zwischen den zwei Bildern notwendig sein. Dementsprechend beinhaltet das Verfahren (200) in (210) ein Identifizieren von Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild. Eine beliebige Merkmalsabgleichstechnik kann verwendet werden, um entsprechende Merkmale zwischen dem verzerrten Bild und dem Luftbild abzugleichen, wie in 8 gezeigt.
  • 8 zeigt ein Ablaufdiagramm eines exemplarischen Verfahrens (600) zum Abgleichen von Merkmalen zwischen einem verzerrten Bild und einem Luftbild nach exemplarischen Ausführungsformen der vorliegenden Offenbarung. In (602) kann das Verfahren (600) ein Extrahieren von lokalen Bilddeskriptoren aus einem verzerrten Bild und aus einem Luftbild beinhalten. Dies Deskriptoren können verschiedene Punkte von Interesse in sowohl dem verzerrten als auch dem Luftbild sein. Die Deskriptoren können unter Verwendung einer SIFT-Technik (Scale invariant feature transform, skaleninvariante Merkmalstransformation) oder einer anderen geeigneten Technik identifiziert werden und die Merkmale können auf Basis von Aussehen oder auf Basis von Merkmalsähnlichkeit abgeglichen werden.
  • In einer bestimmten Implementierung können mit Vegetation assoziierte Pixel vom Extrahieren ausgeschlossen werden. Dies kann zum Beispiel unter Verwendung von LIDAR-Daten oder anderen geometrischen Daten durchgeführt werden, um mit Vegetation assoziierte Pixel zu erkennen und diese Pixel vom Extrahieren in den verzerrten und Luftbildern auszuschließen. In einer anderen bestimmten Ausführungsform können Deskriptoren, die sich nicht auf der im verzerrten und im Luftbild gezeigten Fassade befinden, vom Extrahieren ausgeschlossen werden.
  • In (604) kann das Verfahren (600) ein Abgleichen entsprechender Deskriptoren in den verzerrten und Luftbildern beinhalten. Für jeden Deskriptor im verzerrten Bild kann zum Beispiel der ähnlichste Deskriptor im Luftbild identifiziert werden. In einer bestimmten Implementierung kann ein Deskriptor in einem verzerrten Bild mit einem Deskriptor in einem Luftbild abgeglichen werden, falls ihre Lagen innerhalb von 40 Pixeln voneinander sind. Diese Merkmale können beispielsweise basierend auf Merkmalähnlichkeit abgeglichen werden.
  • Obwohl extrahierte Deskriptoren zwischen dem verzerrten und dem Luftbild robust abgeglichen werden können, können dennoch Probleme auftreten. Ein Deskriptor auf einem wiederholten Fassadenelement (z. B. einem Fenster) kann zum Beispiel gleich gut mit einer beliebigen Kopie dieses Elements im anderen Bild übereinstimmen. Angesichts dieses Problems kann die Merkmalsabgleichsgenauigkeit durch Aufbewahren der mehreren besten Deskriptoren und Verwenden dieser Deskriptoren als Übereinstimmungskandidaten verbessert werden.
  • In (606) kann das Verfahren (600) ein Auffinden einer geometrischen Transformation beinhalten, die das verzerrte Bild mit dem Luftbild in Beziehung setzt. Die geometrische Transformation kann zum Beispiel eine 2D-Transformation sein, die die meisten in (604) gefundenen Übereinstimmungen ausrichtet. In einer bestimmten Ausführungsform kann die geometrische Transformation unter Verwendung von RANSAC (Random Sample Consensus) gefunden werden. RANSAC ist eine Ausreißererkennungstechnik, die viele zufällige Teilmengen der Übereinstimmungen aus (604) erstellt. Die Teilmengen werden dann verwendet, um eine Hypothese einer geometrische Transformation aufzustellen, die die Bilder in Beziehung setzt. Die Hypothese wird gewählt, die mit den meisten anderen Übereinstimmungen konsistent ist.
  • In einer alternativen Ausführungsform kann eine Transformation unter Verwendung mehrerer angrenzender Panoramabilder gefunden werden. Falls es zum Beispiel nur eine kleine Anzahl von Übereinstimmungen in einem Bild gibt, kann ein Finden einer Transformation durch Verwendung mehrerer angrenzender Panoramabilder die Genauigkeit der Transformation verbessern. Eine Wohnfassade kann zum Beispiel oft kleiner und weniger planar als eine innerstädtische Fassade sein, was zu weniger Merkmalsübereinstimmungen führen kann. Dieses Problem kann durch Identifizieren einer konsistenten Transformation über mehrere angrenzende Panoramabilder hinweg im Gegensatz zu einem einzigen Panoramabild kompensiert werden.
  • Zusätzlich kann es für Fassaden, die 3D-Elemente aufweisen, wie Erkerfenster oder Säulen, keine einzelne Transformation geben, die Merkmale zwischen einem verzerrten Bild und einem Luftbild richtig abgleicht. In diesem Fall können die nicht planaren Bereiche zum Beispiel unter Verwendung von LIDAR-Daten modelliert werden. In einer alternativen Ausführungsform können Übereinstimmungen in nicht planaren Bereichen abgelehnt werden.
  • Die Art der in (606) gefundenen geometrischen Transformation kann abhängig vom Grad der Deckungsabweichung zwischen dem verzerrten Bild und dem Luftbild variieren. Falls sich die beiden Bilder zum Beispiel eng decken, kann die geometrische Transformation eine einfache Parallelverschiebung zwischen den beiden Bildern sein. Gleichermaßen kann die geometrische Transformation zwischen den zwei Bildern eine Drehung und/oder eine Skalierung sein. Falls jedoch die Deckung des verzerrten Bilds und des Luftbilds in einem höheren Grad abweicht, könnte die geometrische Transformation eine komplexe Homografie sein.
  • 9A zeigt abgeglichene Merkmale zwischen einem exemplarischen Luftbild 702 und einem exemplarischen verzerrten Bild 704 nach einer exemplarischen Ausführungsform der vorliegenden Offenbarung. Die abgeglichenen Merkmale werden durch vertikale Linien 706 demonstriert, wobei sich jede von einem individuellen Deskriptor im Luftbild zu einem entsprechenden Deskriptor im verzerrten Bild erstreckt. Die Deskriptoren stellen visuelle Punkte von Interesse in sowohl den Luft- als auch verzerren Bildern dar. 9B zeigt auch das Luftbild 702 und das verzerrte Bild 704. 9B zeigt nur ein einziges abgeglichenes Merkmal zwischen den verzerrten und den Luftbildern. Wie durch die vertikale Linie 710 gezeigt, ist Deskriptor 712 im Luftbild mit Deskriptor 714 im verzerrten Bild abgeglichen.
  • Unter erneuter Bezugnahme auf 4 in (212) kann das Verfahren (200) ein Ausrichten des Panoramabilds mit dem Luftbild beinhalten. In einer bestimmten Implementierung kann die Ausrichtung durch Erstellen von Randbedingungen durchgeführt werden, die dreidimensionale Fassadenpunkte und ihre 2D-Lagen im Panoramabild in Beziehung setzen. Ein dreidimensionaler Fassadenpunkt kann durch Rückprojizieren des Fassadenpunkts im Luftbild auf die Fassadenebene gefunden werden. Der entsprechende Panoramabildpunkt kann durch Transformieren dieses Panoramabildpunkts unter Verwendung der geometrischen Transformation, wie in Bezug auf (210) beschrieben, gefunden werden.
  • In einer anderen bestimmten Implementierung kann die Ausrichtung des Panoramabilds am Luftbild durch Erstellen von Randbedingungen durchgeführt werden, die 2D-Lagen im Panoramabild und im Luftbild durchgeführt werden. In dieser bestimmten Implementierung wird der dreidimensionale Fassadenpunkt nicht benötigt. Die Randbedingung wird durch Transformieren des Fassadenpunkts im Luftbild in das Panoramabild unter Verwendung der geometrischen Transformation, wie in Bezug auf (210) beschrieben, erstellt.
  • Die Randbedingungen können verwendet werden, um die Pose des Panoramabilds zu verfeinern. Ein Bündelausgleichungsalgorithmus kann zum Beispiel implementiert werden, um die Pose des Panoramabilds zu justieren und im Panoramabild gezeigte Objekte zumindest teilweise auf Basis der erstellten Randbedingungen zwischen dem Panoramabild und dem Luftbild zu georeferenzieren.
  • Beispielhafte Systeme zum Ausrichten von Panoramaaufnahmen und Luftaufnahmen
  • 10 stellt ein beispielhaftes Computersystem 800 dar, das zum Ausführen der Verfahren und Systeme benutzt wird, die den beispielhaften Aspekten der vorliegenden Offenbarung entsprechen. Das System 800 kann unter Verwendung einer Client-Server-Architektur implementiert werden, die einen Server 810 beinhaltet, der mit einem oder mehreren Clientgeräten 830 über ein Netzwerk 840 kommuniziert. Das System 800 kann unter Verwendung anderer geeigneter Architekturen, wie ein einziges Computergerät, implementiert werden.
  • Das System 800 beinhaltet einen Server 810, wie einen Webserver. Der Server 810 kann ein geografisches Informationssystem hosten. Der Server 810 kann unter Verwendung eines beliebigen geeigneten bzw. beliebiger geeigneter Computergerät(e) implementiert werden. Der Server 810 kann einen oder mehrere Prozessoren 812 und Speicher 814 aufweisen. Der Server 810 kann auch eine Netzwerkschnittstelle beinhalten, die verwendet wird, um mit einem oder mehreren Clientgeräten 830 über das Netzwerk 840 zu kommunizieren. Die Netzwerkschnittstelle kann beliebige geeignete Komponenten zur Schnittstellenbildung mit einem oder mehreren Netzwerken umfassen, die zum Beispiel Sender, Empfänger, Anschlüsse, Controller, Antennen oder andere geeignete Komponenten umfassen.
  • Der eine oder die mehreren Prozessoren 812 können ein beliebiges geeignetes Verarbeitungsgerät, wie einen Mikroprozessor, Mikrocontroller, integrierten Schaltkreis, ein Logikgerät oder ein anderes geeignetes Verarbeitungsgerät, beinhalten. Der Speicher 814 kann ein oder mehrere computerlesbare Medien, einschließlich, aber nicht beschränkt auf nicht-flüchtige computerlesbare Medien, RAM, ROM, Festplatten, Flash-Laufwerke oder andere Speichereinheiten beinhalten. Der Speicher 814 kann Informationen speichern, auf die durch den einen oder die mehreren Prozessoren 812 zugegriffen werden kann, einschließlich computerlesbarer Anweisungen 816, die vom einen oder den mehreren Prozessoren 812 ausgeführt werden können. Die Anweisungen 816 können ein beliebiger Anweisungssatz sein, die bewirken, wenn sie vom einen oder den mehreren Prozessoren 812 ausgeführt werden, dass der eine oder die mehreren Prozessoren 812 Operationen durchführen. Die Anweisungen 816 können zum Beispiel vom einen oder von den mehreren Prozessoren 812 ausgeführt werden, um ein oder mehrere Module zu implementieren, die konfiguriert sind, ein Ausrichtungsmodul 820 und/oder verschiedene Aspekte beliebiger der hierin offenbarten Verfahren zu implementieren.
  • Das Ausrichtungsmodul 820 kann konfiguriert sein, Panoramaaufnahmen, die aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurden, und Luftaufnahmen nach exemplarischen Ausführungsformen der vorliegenden Offenbarung auszurichten. Das Ausrichtungsmodul 820 kann ein oder mehrere Module, wie ein Randbedingungsmodul, Verzerrungsmodul und ein Merkmalsabgleichsmodul, beinhalten. Das Randbedingungsmodul kann konfiguriert sein, Randbedingungen zu erstellen, die Punkte in den Panorama- und Luftbildern in Beziehung setzen, wie in Bezug auf (212) von Verfahren (200) beschrieben, das in 4 gezeigt ist. Das Verzerrungsmodul kann konfiguriert sein, ein Panoramabild in ein verzerrtes Bild zu transformieren, das eine mit einem Luftbild assoziierte Projektion aufweist, wie in Verfahren (400), das in 6 gezeigt ist. Das Merkmalsübereinstimmungsmodul kann konfiguriert sein, ein oder mehrere abgeglichene Merkmale zwischen dem verzerrten Bild und dem Luftbild zu identifizieren, wie in Verfahren (600), das in 5 gezeigt ist. Das Ausrichtungsmodul 820 kann konfiguriert sein, die Panoramaaufnahmen und die Luftaufnahmen zumindest teilweise auf Basis der abgeglichenen Merkmale auszurichten.
  • Es versteht sich von selbst, dass der Begriff „Modul” sich auf eine Computerlogik bezieht, die verwendet wird, um die erwünschte Funktionalität bereitzustellen. Somit kann ein Modul in Hardware, anwendungsspezifischen Schaltungen, Firmware und/oder Software implementiert werden, mittels der/denen ein Universalprozessor gesteuert wird. In einer Ausführungsform sind die Module Programmcode-Dateien, die auf dem Speichergerät gespeichert sind, in einen Speicher geladen werden und von einem Prozessor ausgeführt werden oder können von Computerprogramm-Produkten bereitgestellt werden, zum Beispiel computerausführbare Anweisungen, die in einem greifbaren computerlesbaren Speichermedium, wie RAM, Festplatte oder optischen oder magnetischen Medien, gespeichert sind. Wenn Software verwendet wird, kann eine beliebige geeignete Programmiersprache oder Plattform verwendet werden, um das Modul zu implementieren.
  • Der Speicher 814 kann auch Daten 818 beinhalten, die vom einen oder von den mehreren Prozessoren 812 abgerufen, manipuliert, erstellt oder gespeichert werden können. Die Daten 818 können zum Beispiel Panoramaaufnahmen, Luftaufnahmen, Kameraparameter, mit sowohl den Panorama- als auch den Luftaufnahmen assoziierte geometrische Daten und andere Informationen beinhalten. Die Daten 818 können in einer oder mehreren Datenbanken gespeichert sein. Die eine oder mehreren Datenbanken können mit dem Server 810 über ein LAN oder WAN mit hoher Bandbreite verbunden sein oder können auch mit dem Server 810 durch das Netzwerk 840 verbunden sein. Die eine oder mehreren Datenbanken können so aufgeteilt sein, dass sie sich an mehreren Orten befinden.
  • Der Server 810 kann über das Netzwerk 840 Daten mit einem oder mehreren Clientgeräten 830 austauschen. Obwohl in 10 zwei Clientgeräte 830 veranschaulicht sind, kann jede beliebige Anzahl von Clientgeräten 830 mit Server 810 über das Netzwerk 840 verbunden sein. Jedes der Clientgeräte 830 kann ein beliebiger geeigneter Typ von Computergerät sein, wie ein Universalcomputer, Spezialcomputer, Laptop, Desktop, ein mobiles Gerät, Smartphone, Tablet, tragbares Computergerät, eine Anzeige mit einem oder mehreren Prozessoren oder ein anderes geeignetes Computergerät.
  • Ähnlich wie der Server 810 kann ein Clientgerät 830 einen oder mehrere Prozessor(en) 832 und einen Speicher 834 beinhalten. Der eine oder die mehreren Prozessor(en) 832 kann bzw. können eine oder mehrere Zentralprozessoreinheiten (CPUs), Grafikprozessoreinheiten (GPUs), die zur effizienten Wiedergabe von Bildern dediziert sind, und/oder andere Verarbeitungsgeräte beinhalten. Der Speicher 834 kann ein oder mehrere computerlesbare Medien beinhalten und kann Informationen speichern, auf die durch den einen oder die mehreren Prozessoren 832 zugegriffen werden kann, einschließlich Anweisungen 836, die vom einen oder den mehreren Prozessoren 832 ausgeführt werden können, und Daten 838. Der Speicher 834 kann zum Beispiel Anweisungen 836 zum Implementieren eines Benutzeroberflächenmoduls und eines Wiedergabemoduls zum Darstellen von interaktiven Aufnahmen eines geografischen Bereichs für einen Benutzer speichern. Die interaktiven Aufnahmen können zumindest teilweise auf Basis von mit Luftaufnahmen ausgerichteten Panoramaaufnahmen generiert werden.
  • Der Computer 830 aus 10 kann verschiedene Ein-/Ausgabevorrichtungen zum Bereitstellen und Empfangen von Informationen von einem Benutzer, wie z. B. einen Touchscreen, ein Touchpad, Dateneingabetasten, Lautsprecher und/oder ein zur Spracherkennung geeignetes Mikrofon umfassen. Das Clientgerät 830 kann zum Beispiel eine Anzeige 835 aufweisen, um einem Benutzer geografische Bilder eines geografischen Bereichs darzustellen.
  • Das Clientgerät 830 kann auch eine Netzwerkschnittstelle beinhalten, die verwendet wird, um mit einem oder mehreren entfernten Computergeräten (z. B. dem Server 810) über das Netzwerk 840 zu kommunizieren. Die Netzwerkschnittstelle kann beliebige geeignete Komponenten zur Schnittstellenbildung mit einem oder mehreren Netzwerken umfassen, die zum Beispiel Sender, Empfänger, Anschlüsse, Controller, Antennen oder andere geeignete Komponenten umfassen.
  • Das Netzwerk kann ein beliebiger Typ von Kommunikationsnetzwerk sein, wie ein lokales Netzwerk (z. B. Intraet), Weitverkehrsnetz (z. B. Internet), Funknetzwerk oder eine Kombination davon. Das Netzwerk 840 kann auch eine direkte Verbindung zwischen einem Clientgerät 830 und dem Server 810 beinhalten. Im Allgemeinen kann eine Kommunikation zwischen dem Server 810 und einem Clientgerät 830 über eine Netzwerkschnittstelle unter Verwendung eines beliebigen Typs von verdrahteter und/oder drahtloser Verbindung, unter Verwendung einer Vielzahl von Kommunikationsprotokollen (z. B. TCP/ICP, HTTP, SMTP, FTP), Kodierungen oder Formaten (z. B. HTML, XML) und/oder Schutzschemata (z. B. VPN, sicheres HTTP, SSL) getragen werden.
  • Die hier besprochene Technologie nimmt Bezug auf Server, Datenbanken, Softwareanwendungen, und sonstige computerbasierte Systeme sowie auch auf unternommene Handlungen und Informationen, die an und von derartigen Systemen gesendet werden. Der Durchschnittsfachmann auf diesem Gebiet wird erkennen, dass die naturgemäße Flexibilität computergestützter Systeme eine große Vielfalt an möglichen Konfigurationen, Kombinationen und der Aufteilung von Aufgaben und Funktionalitäten zwischen und unter den Komponenten ermöglicht. Die hierin diskutierten Serverprozesse können beispielsweise unter Verwendung eines einzelnen Servers oder mehrerer in Kombination betriebener Server umgesetzt werden. Datenbanken und Anwendungen können auf einem einzigen System oder verteilt auf mehrere Systeme implementiert werden. Verteilte Komponenten können sequenziell oder parallel betrieben werden.
  • Während der vorliegende Gegenstand im Detail unter Bezugnahme auf spezifische Ausführungsbeispiele beschrieben wurde, versteht es sich, dass Fachleute auf dem Gebiet nach Erlangen eines Verständnisses des Vorstehenden leicht Veränderungen an, Variationen von und Äquivalente zu solchen Ausführungsformen anfertigen können. Demgemäß ist der Umfang der vorliegenden Offenlegung nur beispielhaft und nicht begrenzend, und die betroffene Offenbarung schließt die Einbeziehung solcher Modifizierungen, Varianten und/oder Hinzufügungen des vorliegenden Gegenstands nicht aus, die für den Fachmann problemlos offensichtlich sind.

Claims (20)

  1. Computerimplementiertes Verfahren des Ausrichtens von Panoramaaufnahmen an Luftaufnahmen, wobei das Verfahren Folgendes umfasst: das Zugreifen, durch ein oder mehrere Computergeräte, auf ein Panoramabild, das aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurde, wobei das Panoramabild mit einer ersten Pose und ersten geometrischen Daten assoziiert ist; das Erkennen, durch das eine oder die mehreren Computergeräte, einer Fassadenebene im Panoramabild zumindest teilweise auf Basis der ersten geometrischen Daten; das Identifizieren, durch das eine oder die mehreren Computergeräte, eines Luftbilds zumindest teilweise auf Basis der erkannten Fassadenebene, wobei das Luftbild die Fassadenebene zeigt und das Luftbild mit einer zweiten Pose und zweiten geometrischen Daten assoziiert ist; das Transformieren, durch das eine oder die mehreren Computergeräte, des Panoramabilds in ein verzerrtes Bild durch Projizieren einer Bildebene des Panoramabilds auf eine mit dem Luftbild assoziierte Bildebene zumindest teilweise auf Basis der ersten geometrischen Daten; das Identifizieren, durch das eine oder die mehreren Computergeräte, einer oder mehrerer Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild; und das Ausrichten, durch das eine oder die mehreren Computergeräte, des Panoramabilds am Luftbild zumindest teilweise auf Basis der einen oder mehreren Merkmalsübereinstimmungen.
  2. Computerimplementiertes Verfahren nach Anspruch 1, wobei die ersten geometrischen Daten eine dreidimensionale Geometrie des im Panoramabild gezeigten geografischen Bereichs bereitstellen.
  3. Computerimplementiertes Verfahren nach Anspruch 2, wobei die dreidimensionale Geometrie zumindest teilweise auf Basis von mit einem Laser-Entfernungsmesser assoziierten Daten bestimmt wird.
  4. Computerimplementiertes Verfahren nach Anspruch 1, wobei die zweiten geometrischen Daten eine Tiefenkarte umfassen, wobei die Tiefenkarte den Abstand zum nächsten Objekt an jedem Pixel des Luftbilds bereitstellt.
  5. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Ausrichten, durch das eine oder die mehreren Computergeräte, des Panoramabilds am Luftbild ein Erstellen von Randbedingungen umfasst, die mit der Fassadenebene assoziierte dreidimensionale Fassadenpunkte und ihre zweidimensionalen Lagen im Panoramabild in Beziehung setzen.
  6. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Ausrichten, durch das eine oder die mehreren Computergeräte, des Panoramabilds am Luftbild ein Erstellen von Randbedingungen durch das eine oder die mehreren Computergeräte umfasst, die zweidimensionale Lagen im Panoramabild und im Luftbild in Beziehung setzen.
  7. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Identifizieren, durch das eine oder die mehreren Computergeräte, des Luftbilds ein Identifizieren, durch das eine oder die mehreren Computergeräte, des Luftbilds mit der am wenigsten verkürzten und am wenigsten verdeckten Ansicht der erkannten Fassadenebene umfasst.
  8. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Identifizieren der einen oder mehreren Merkmalsübereinstimmungen durch das eine oder die mehreren Computergeräte Folgendes umfasst: das Extrahieren, durch das eine oder die mehreren Computergeräte, einer oder mehrerer Deskriptoren des verzerrten Bilds und des Luftbilds; das Abgleichen, durch das eine oder die mehreren Computergeräte, entsprechender Deskriptoren im verzerrten Bild und im Luftbild; und das Bestimmen, durch das eine oder die mehreren Computergeräte, einer geometrischen Transformation, die das verzerrte Bild und das Luftbild zumindest teilweise auf Basis der abgeglichenen Deskriptoren des verzerrten Bilds und des Luftbilds in Beziehung setzt.
  9. Computerimplementiertes Verfahren nach Anspruch 8, wobei das Extrahieren eines oder mehrerer Deskriptoren durch das eine oder die mehreren Computergeräte ein Ausschließen, durch das eine oder die mehreren Computergeräte, von nicht mit der Fassadenebene assoziierten Pixeln im verzerrten Bild und im Luftbild von den Deskriptoren umfasst.
  10. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Ausrichten, durch das eine oder die mehreren Computergeräte, des Panoramabilds am Luftbild ein Justieren, durch das eine oder die mehreren Computergeräte, der ersten Pose zumindest teilweise auf Basis des einen oder der mehreren Merkmalsübereinstimmungen umfasst.
  11. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Transformieren des Panoramabilds in ein verzerrtes Bild durch das eine oder die mehreren Computergeräte Folgendes umfasst: das Projizieren, durch das eine oder die mehreren Computergeräte, der erkannten Fassadenebene in das Luftbild; das Identifizieren, durch das eine oder die mehreren Computergeräte, eines Begrenzungsrahmens der Fassadenebene relativ zum Luftbild; das Rückprojizieren, durch das eine oder die mehreren Computergeräte, jedes Pixels im Begrenzungsrahmen auf einen entsprechenden dreidimensionalen Punkt auf der erkannten Fassadenebene; und das erneute Projizieren, durch das eine oder die mehreren Computergeräte, jedes Punkts auf der erkannten Fassadenebene in das Panoramabild.
  12. Computerimplementiertes Verfahren nach Anspruch 1, ferner umfassend ein Aktualisieren, durch das eine oder die mehreren Computergeräte, eines dreidimensionalen Modells eines geografischen Bereichs zumindest teilweise auf Basis der Ausrichtung des Panoramabilds am Luftbild.
  13. Computerimplementiertes Verfahren nach Anspruch 12, das ferner ein Empfangen, durch das eine oder die mehreren Computergeräte, einer Anforderung des dreidimensionalen Modells von einem Benutzer und ein Bereitstellen, durch das eine oder die mehreren Computergeräte, des dreidimensionalen Modells an den Benutzer als Reaktion auf die Anforderung umfasst.
  14. Computersystem, umfassend: einen oder mehrere Prozessor(en); und ein oder mehrere computerlesbare Medien, die computerlesbare Anweisungen speichern, die bewirken, wenn sie vom einen oder den mehreren Prozessoren ausgeführt werden, dass der eine oder die mehreren Prozessoren Vorgänge durchführt, wobei die Vorgänge Folgendes umfassen: das Zugreifen auf ein Panoramabild, das aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurde, wobei das Panoramabild mit einer ersten Pose und ersten geometrischen Daten assoziiert ist; das Erkennen einer Fassadenebene im Panoramabild zumindest teilweise auf Basis der ersten geometrischen Daten; das Identifizieren eines Luftbilds zumindest teilweise auf Basis der erkannten Fassadenebene, wobei das Luftbild die Fassadenebene zeigt und das Luftbild mit einer zweiten Pose und zweiten geometrischen Daten assoziiert ist; das Transformieren des Panoramabilds in ein verzerrtes Bild durch Projizieren einer Bildebene des Panoramabilds auf eine mit dem Luftbild assoziierte Bildebene zumindest teilweise auf Basis der ersten geometrischen Daten; das Identifizieren einer oder mehrerer Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild; das Ausrichten des Panoramabilds am Luftbild zumindest teilweise auf Basis der einen oder mehreren Merkmalsübereinstimmungen.
  15. Computersystem nach Anspruch 14, wobei das Ausrichten des Panoramabilds am Luftbild ein Justieren der ersten Pose zumindest teilweise auf Basis des einen oder der mehreren Merkmalsübereinstimmungen umfasst.
  16. Computersystem nach Anspruch 14, wobei das Identifizieren des Luftbilds ein Identifizieren eines Luftbilds mit der am wenigsten verkürzten und am wenigsten verdeckten Ansicht der erkannten Fassadenebene umfasst.
  17. Computersystem nach Anspruch 14, wobei die Operation des Identifizierens von Merkmalsübereinstimmungen Folgendes umfasst: das Extrahieren einer oder mehrerer Deskriptoren des verzerrten Bilds und des Luftbilds; das Abgleichen der entsprechenden Deskriptoren im verzerrten Bild und im Luftbild; und das Finden einer geometrischen Transformation, die das verzerrte Bild und das Luftbild zumindest teilweise auf Basis der abgeglichenen Deskriptoren des verzerrten Bilds und des Luftbilds in Beziehung setzt.
  18. Nicht-flüchtiges computerlesbares Medium oder mehrere nicht-flüchtige computerlesbare Medien, das bzw. die computerlesbare Anweisungen speichert bzw. speichern, die bewirken, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, dass der eine oder die mehreren Prozessoren Vorgänge durchführt, wobei die Vorgänge Folgendes umfassen: das Zugreifen auf ein Panoramabild, das aus einer Perspektive auf oder nahe Bodenhöhe erfasst wurde, wobei das Panoramabild mit einer ersten Pose und ersten geometrischen Daten assoziiert ist; das Erkennen einer Fassadenebene im Panoramabild zumindest teilweise auf Basis der ersten geometrischen Daten; das Identifizieren eines Luftbilds zumindest teilweise auf Basis der erkannten Fassadenebene, wobei das Luftbild die Fassadenebene zeigt und das Luftbild mit einer zweiten Pose und zweiten geometrischen Daten assoziiert ist; das Transformieren des Panoramabilds in ein verzerrtes Bild durch Projizieren einer Bildebene des Panoramabilds auf eine mit dem Luftbild assoziierte Bildebene zumindest teilweise auf Basis der ersten geometrischen Daten; das Identifizieren einer oder mehrerer Merkmalsübereinstimmungen zwischen dem verzerrten Bild und dem Luftbild; das Ausrichten des Panoramabilds am Luftbild zumindest teilweise auf Basis der einen oder mehreren Merkmalsübereinstimmungen.
  19. Nicht-flüchtiges computerlesbares Medium oder mehrere nicht-flüchtige computerlesbare Medien nach Anspruch 18, wobei die Operation des Erkennens einer Fassadenebene ein Identifizieren eines oder mehrerer vertikaler planarer Polygone, die einer Gebäudefassade entsprechen, zumindest teilweise auf Basis der ersten geometrischen Daten umfasst.
  20. Nicht-flüchtiges computerlesbares Medium oder mehrere nicht-flüchtige computerlesbare Medien nach Anspruch 18, wobei die Operation des Ausrichtens des Panoramabilds am Luftbild ein Justieren der ersten Pose zumindest teilweise auf Basis des einen oder der mehreren Merkmalsübereinstimmungen umfasst.
DE112015005191.0T 2014-11-18 2015-09-22 Ausrichten von Panoramaaufnahmen und Luftaufnahmen Pending DE112015005191T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/546,217 2014-11-18
US14/546,217 US9530235B2 (en) 2014-11-18 2014-11-18 Aligning panoramic imagery and aerial imagery
PCT/US2015/051466 WO2016081062A1 (en) 2014-11-18 2015-09-22 Aligning panoramic imagery and aerial imagery

Publications (1)

Publication Number Publication Date
DE112015005191T5 true DE112015005191T5 (de) 2017-08-24

Family

ID=54292920

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112015005191.0T Pending DE112015005191T5 (de) 2014-11-18 2015-09-22 Ausrichten von Panoramaaufnahmen und Luftaufnahmen
DE202015009182.2U Active DE202015009182U1 (de) 2014-11-18 2015-09-22 Ausrichten von Panoramaaufnahmen und Luftaufnahmen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202015009182.2U Active DE202015009182U1 (de) 2014-11-18 2015-09-22 Ausrichten von Panoramaaufnahmen und Luftaufnahmen

Country Status (5)

Country Link
US (1) US9530235B2 (de)
CN (1) CN106462943A (de)
DE (2) DE112015005191T5 (de)
GB (1) GB2547517B (de)
WO (1) WO2016081062A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9803985B2 (en) * 2014-12-26 2017-10-31 Here Global B.V. Selecting feature geometries for localization of a device
EP3459003B1 (de) * 2016-05-20 2021-01-13 Magic Leap, Inc. Verfahren und system zur durchführung der schätzung der transformation eines konvolutionalen bildes
US10784134B2 (en) * 2017-05-03 2020-09-22 Applied Materials, Inc. Image based substrate mapper
US10670725B2 (en) 2017-07-25 2020-06-02 Waymo Llc Determining yaw error from map data, lasers, and cameras
WO2019061334A1 (en) * 2017-09-29 2019-04-04 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS FOR PROCESSING AND DISPLAYING IMAGE DATA BASED ON ATTITUDE INFORMATION
WO2019164497A1 (en) * 2018-02-23 2019-08-29 Sony Mobile Communications Inc. Methods, devices, and computer program products for gradient based depth reconstructions with robust statistics
US11127162B2 (en) 2018-11-26 2021-09-21 Ford Global Technologies, Llc Method and apparatus for improved location decisions based on surroundings
US10704918B2 (en) 2018-11-26 2020-07-07 Ford Global Technologies, Llc Method and apparatus for improved location decisions based on surroundings
US11175156B2 (en) 2018-12-12 2021-11-16 Ford Global Technologies, Llc Method and apparatus for improved location decisions based on surroundings
CN110096922B (zh) * 2019-05-08 2022-07-12 深圳市易尚展示股份有限公司 编码点的处理方法、装置、计算机设备和存储介质
US10841483B1 (en) * 2019-07-11 2020-11-17 Denso International America, Inc. System and method for calibrating at least one camera and a light detection and ranging sensor
CN111797123A (zh) * 2020-07-13 2020-10-20 贵州电网有限责任公司 一种面向事件的多维全景数据结构的形成方法
WO2024106833A1 (ko) * 2022-11-16 2024-05-23 네이버랩스 주식회사 빌딩 컨트롤 포인트 자동 취득 방법 및 시스템

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US20060132482A1 (en) * 2004-11-12 2006-06-22 Oh Byong M Method for inter-scene transitions
US8160400B2 (en) 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US7860280B2 (en) 2006-06-09 2010-12-28 Samsung Electronics Co., Ltd. Facial feature detection method and device
JP5012000B2 (ja) * 2006-12-15 2012-08-29 ソニー株式会社 照合装置、照合方法及びプログラム
JP2008269471A (ja) * 2007-04-24 2008-11-06 Sony Corp 類似画像判定装置と類似画像判定方法およびプログラムと記録媒体
US20090110267A1 (en) * 2007-09-21 2009-04-30 The Regents Of The University Of California Automated texture mapping system for 3D models
US8116596B2 (en) 2008-01-30 2012-02-14 Eastman Kodak Company Recognizing image environment from image and position
CN101639858A (zh) * 2009-08-21 2010-02-03 深圳创维数字技术股份有限公司 基于目标区域匹配的图像检索方法
US20140125667A1 (en) * 2009-11-11 2014-05-08 Google Inc. Roof Generation And Texturing Of 3D Models
CN101706793B (zh) * 2009-11-16 2012-09-26 中兴通讯股份有限公司 搜索图片的方法和装置
US9129432B2 (en) * 2010-01-28 2015-09-08 The Hong Kong University Of Science And Technology Image-based procedural remodeling of buildings
US8295589B2 (en) * 2010-05-20 2012-10-23 Microsoft Corporation Spatially registering user photographs
EP2686827A1 (de) * 2011-03-18 2014-01-22 C3 Technologies AB 3d-strassen
CN102164298B (zh) * 2011-05-18 2012-10-03 长春理工大学 全景成像系统中基于立体匹配的元素图像获取方法
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US8989483B2 (en) * 2011-06-10 2015-03-24 Sri International Method and apparatus for inferring the geographic location of captured scene depictions
CN102289304B (zh) * 2011-08-17 2014-05-07 Tcl集团股份有限公司 一种遥控器模拟鼠标移动的实现方法、实现系统及遥控器
US9977978B2 (en) 2011-11-14 2018-05-22 San Diego State University Research Foundation Image station matching, preprocessing, spatial registration and change detection with multi-temporal remotely-sensed imagery
US9501700B2 (en) * 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US20140192050A1 (en) * 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
US9251433B2 (en) * 2012-12-10 2016-02-02 International Business Machines Corporation Techniques for spatial semantic attribute matching for location identification
US20140301645A1 (en) * 2013-04-03 2014-10-09 Nokia Corporation Method and apparatus for mapping a point of interest based on user-captured images
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
US8761457B1 (en) 2013-11-27 2014-06-24 Google Inc. Aligning ground based images and aerial imagery
US9165361B1 (en) * 2014-03-13 2015-10-20 Raytheon Company Video tracking with jitter, slewing, or zoom
US20150371440A1 (en) * 2014-06-19 2015-12-24 Qualcomm Incorporated Zero-baseline 3d map initialization

Also Published As

Publication number Publication date
US9530235B2 (en) 2016-12-27
DE202015009182U1 (de) 2016-12-01
CN106462943A (zh) 2017-02-22
GB201621359D0 (en) 2017-02-01
WO2016081062A1 (en) 2016-05-26
GB2547517B (en) 2021-10-27
US20160140744A1 (en) 2016-05-19
GB2547517A (en) 2017-08-23

Similar Documents

Publication Publication Date Title
DE112015005191T5 (de) Ausrichten von Panoramaaufnahmen und Luftaufnahmen
DE202014010843U1 (de) Ausrichten von bodenbasierten Bildern mit Luftbildern
CN109598794B (zh) 三维gis动态模型的构建方法
CA2662355C (en) Mosaic oblique images and methods of making and using same
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE112011103221T5 (de) Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten
DE102020214863A1 (de) Selbstüberwachtes verfahren und system zur tiefenschätzung
US20150243073A1 (en) Systems and Methods for Refining an Aerial Image
DE112016001830T5 (de) Das Entdecken von Unternehmen aus Bildern
EP3550516A1 (de) Umgebungsparameterabhängige auswahl eines datenmodells zur erkennung eines objekts einer realen umgebung
DE202015009198U1 (de) Auswahl der zeitlich verteilten Panoramabilder für die Anzeige
EP2923333B1 (de) Verfahren zum automatischen erstellen von zwei- oder dreidimensionalen gebäudemodellen
DE202010018498U1 (de) Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz
EP2910899A1 (de) Verfahren und System zum Bilden eines dreidimensionalen Modells aus Satellitenbildern
DE202012013426U1 (de) Integrieren von Karten und Straßenansichten
DE112019002080T5 (de) Systeme und verfahren zur stellungsbestimmung
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
DE202014010922U1 (de) Erzeugung von Tiefenkarten
DE102017012116A1 (de) Vorschauerzeugung aus panoramischen Bildern
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE102021204765A1 (de) Rendern von Augmented-Reality mit Verdeckung
DE112015003263T5 (de) Bildmodifikation
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, NL

R016 Response to examination communication