DE112011103221T5 - Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten - Google Patents

Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten Download PDF

Info

Publication number
DE112011103221T5
DE112011103221T5 DE112011103221T DE112011103221T DE112011103221T5 DE 112011103221 T5 DE112011103221 T5 DE 112011103221T5 DE 112011103221 T DE112011103221 T DE 112011103221T DE 112011103221 T DE112011103221 T DE 112011103221T DE 112011103221 T5 DE112011103221 T5 DE 112011103221T5
Authority
DE
Germany
Prior art keywords
image data
point cloud
data
area segment
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112011103221T
Other languages
English (en)
Inventor
Maha El Choubassi
Igor V. Kozintsev
Yi Wu
Yoram Gat
Horst W. Haussecker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112011103221T5 publication Critical patent/DE112011103221T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

Ausführungsformen der Erfindung beschreiben das Verarbeiten von ersten Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten. Dieses erste Flächensegment ist mit einem in den ersten Bilddaten enthaltenen Objekt verknüpft. Zweite Bilddaten werden empfangen, wobei die zweiten Bilddaten das in den ersten Bilddaten erfasste Objekt enthalten. Ein zweites zu dem Objekt zugehöriges Flächensegment wird erzeugt, wobei das zweite Flächensegment mit dem Objekt, wie es in den zweiten Bilddaten erfasst wurde, geometrisch übereinstimmt. Dieses Flächensegment wird zumindest teilweise basierend auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment erzeugt.
Ausführungsformen der Erfindung können die zweiten Bilddaten mit Inhalten erweitern, die mit dem Objekt verknüpft sind. Dieses erweiterte Bild kann derart angezeigt werden, dass die Inhalte geometrisch übereinstimmend mit dem zweiten Flächensegment angezeigt werden.

Description

  • GEBIET
  • Ausführungsformen der Erfindung betreffen im Allgemeinen mobile Computervorrichtungen und insbesondere das Erweitern von erfassten Bildern mit zugehörigen Inhalten.
  • HINTERGRUND DER ERFINDUNG
  • Mobile Computervorrichtungen umfassen typischerweise Kameras, Standort- und Orientierungssensoren und immer leistungsstärkere Rechenressourcen. Mobile Computervorrichtungen können auch hohe Bandbreitenverbindungen herstellen, um Cloud-Computerinfrastrukturen und -Serviceanbieter zu nutzen.
  • Die in mobilen Computervorrichtungen enthaltenen Displays können als Live-Bildsucher verwendet werden, um den Nutzern der Vorrichtung die Erfassung von Echtzeitbilddaten (z. B. Fotos, Videos) zu ermöglichen; allerdings sind die meisten Anwendungen nicht in der Lage, die für die mobile Computervorrichtung verfügbaren Rechenressourcen zu nutzen, um Benutzern zusätzliche Informationen zur Verfügung zu stellen, die für den Gegenstand in der angezeigten Live-Ansicht (d. h. dem Bildsucher) relevant sind. Die begrenzte Anzahl an Anwendungen, die versuchen, die Live-Ansicht zu erweitern sind auf die Darstellung grundlegender Informationen beschränkt, wie z. B. den Abstand zwischen dem Benutzer und einem bestimmten Standort, oder grundlegende Informationen über die Umgebung des Benutzers (z. B. die Geschäftsarten in der Live-Ansicht).
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die folgende Beschreibung umfasst die Erörterung von Figuren, in denen Illustrationen für Beispiele von Implementierungen der Ausführungsformen der Erfindung angegeben sind. Die Zeichnungen sollten als Beispiel und nicht als Einschränkung verstanden werden. Wie hier verwendet, sollen Verweise auf eine oder mehrere ”Ausführungsformen” als Beschreibung bestimmter Merkmale, Strukturen oder Eigenschaften, die in mindestens einer Implementierung der Erfindung enthalten sind, verstanden werden. Daher beschreiben Satzteile, wie z. B. ”in einer Ausführungsform” oder ”in einer alternativen Ausführungsform”, die in diesem Text enthalten sind, verschiedene Ausführungsformen und Implementierungen der Erfindung und beziehen sich nicht unbedingt alle auf dieselbe Ausführungsform. Allerdings schließen sie sich auch nicht unbedingt gegenseitig aus.
  • 1 zeigt ein Beispiel einer erweiterten 3D-Ansicht, die gemäß einer Ausführungsform der Erfindung auf einer mobilen Computervorrichtung dargestellt wird.
  • 2 ist ein Ablaufdiagramm eines Prozesses gemäß einer Ausführungsform der Erfindung.
  • 3 zeigt Bilddaten, 3D-Punktwolkendaten und Flächensegmente, die von Ausführungsformen der Erfindung verarbeitet werden können.
  • 4 ist ein Ablaufdiagramm für die Verarbeitung von 3D-Punktwolkendaten und das Extrahieren von Flächensegmenten gemäß einer Ausführungsform der Erfindung.
  • 5 ist ein Ablaufdiagramm eines Prozesses zum Verfeinern extrahierter Ebenen gemäß einer Ausführungsform der Erfindung.
  • 6 zeigt das Cluster von Flächensegmenten gemäß einer Ausführungsform der Erfindung.
  • 7 ist ein Ablaufdiagramm eines Prozesses zum Einbinden von Flächensegmenten gemäß einer Ausführungsform der Erfindung.
  • 8 zeigt einen visuellen Merkmalsabgleich und eine Extraktion von Flächensegmenten gemäß einer Ausführungsform der Erfindung.
  • 9 ist ein Blockdiagramm eines Systems, das eine Ausführungsform der Erfindung umfassen kann.
  • Beschreibungen bestimmter Details und Implementierungen folgen, einschließlich einer Beschreibung der Figuren, die einige oder alle der im Folgenden beschriebenen Ausführungsformen zeigen, sowie eine Erörterung weiterer möglicher Ausführungsformen oder Implementierungen der hier dargestellten vorliegenden Erfindung. Eine Übersicht der Ausführungsformen der Erfindung wird im Folgenden gegeben, gefolgt von einer detaillierteren Beschreibung mit Bezugnahme auf die Zeichnungen.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen der Erfindung beziehen sich auf Systeme, Einrichtungen und Verfahren zum Bereitstellen von Bilddaten, die durch zugehörige Daten erweitert werden, um auf einer mobilen Computervorrichtung dargestellt zu werden. Ausführungsformen der Erfindung beschreiben das Verarbeiten von ersten Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten. Dieses erste Flächensegment ist mit einem in den ersten Bilddaten enthaltenen Objekt verknüpft. Zweite Bilddaten werden empfangen (z. B. über einen in einer mobilen Computervorrichtung enthaltenen Bildsensor erfasst), wobei die zweiten Bilddaten das in den ersten Bilddaten erfasste Objekt enthalten. Ein zweites zu dem Objekt zugehöriges Flächensegment wird erzeugt, wobei das zweite Flächensegment mit dem Objekt, wie es in den zweiten Bilddaten erfasst wurde, geometrisch übereinstimmt. Wie im Folgenden beschrieben wird dieses Flächensegment zumindest teilweise basierend auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment erzeugt.
  • Ausführungsformen der Erfindung können die zweiten Bilddaten weiterhin durch Inhalte erweitern, die mit dem Objekt (z. B. Text, Bildern oder Videos oder einer 3D-Struktur) verknüpft sind. Diese erweiterten Inhalte können angezeigt werden, z. B. auf einem in der mobilen Computervorrichtung enthaltenen Display, wobei die Inhalte geometrisch übereinstimmend mit dem zweiten Flächensegment dargestellt werden.
  • 1 zeigt ein Beispiel einer erweiterten 3D-Ansicht, die gemäß einer Ausführungsform der Erfindung auf einer mobilen Computervorrichtung dargestellt wird. Die mobile Computervorrichtung 100 umfasst das Display 110. Die Vorrichtung 100 kann ein beliebiges portables Computersystem sein, wie z. B. ein Laptop-Computer, ein Tablet-Computer, ein Smartphone, eine tragbare Computervorrichtung, ein Fahrzeug-Computersystem usw.
  • In diesem Beispiel umfasst das Display 110 eine Echtzeitansicht 120 der Umgebung eines Benutzers über einen in der Vorrichtung 100 (nicht dargestellt) enthaltenen Bildsensor (z. B. eine Kamera). Es versteht sich, dass die Vorrichtung 100 durch die Darstellung der Echtzeitansicht 120 als Bildsucher funktionieren kann, der Bilddaten (z. B. Bilder, Video) anzeigt, um es dem Benutzer zu ermöglichen, das Ziel des Bildsensors der Vorrichtung zu beobachten.
  • In dieser Ausführungsform wird die Echtzeitansicht 120 durch Flächensegmente 130, 140 und 150 erweitert. Die Flächensegmente 130, 140 und 150 entsprechen Objekten, die in der Ansicht 120 ermittelt wurden. In diesem Beispiel entsprechen die Flächensegmente 130, 140 und 150 Gebäuden 131, 141 und 151 in einer Ansicht 120.
  • Die Flächensegmente 130, 140 und 150 werden aus 3D-Informationen, die zur Ansicht 120 gehören, durch im Folgenden beschriebene Prozesse extrahiert. Jedes Flächensegment ist eine geometrisch übereinstimmende Flächenebene der jeweiligen Objekte in der Echtzeitansicht 120 (d. h. in diesem Beispiel, übereinstimmend mit den Vorderseiten der Gebäude 131, 141 und 151 wie in Display 110 dargestellt).
  • In dieser Ausführungsform umfassen die Flächensegmente 130, 140 und 150 Daten, die zu ihren jeweiligen Objekten in der Echtzeitansicht 120 gehören. Das Flächensegment 130 umfasst ein Bild, das zum Gebäude gehört (in diesem Beispiel ein Bild des Benutzers im Gebäude 131). Das Flächensegment 140 umfasst Textdaten, die zu einem in dem Gebäude operativ tätigen Geschäft gehören, innerhalb des mindestens einen Flächensegments auf einem Display der mobilen Computervorrichtung. In diesem Beispiel kennzeichnen die Textdaten das in Gebäude 141 enthaltene Geschäft. Das Flächensegment 150 umfasst Videodaten, die im Gebäude 151 erfasst wurden. Die in jedem der Flächensegmente enthaltenen erweiterten Inhalte stimmen mit den jeweiligen Flächensegmenten geometrisch überein (d. h. stimmen geometrisch mit der Flächenebene der jeweiligen Objekte in der Echtzeitansicht 120 überein). Die erweiterten Inhalte können beispielsweise im Speicher der Vorrichtung 100 enthalten sein oder über eine Netzwerkverbindung (z. B. drahtlose Internetverbindung) von einer Datenbank erhalten werden.
  • 2 ist ein Ablaufdiagramm eines Prozesses gemäß einer Ausführungsform der Erfindung. Die hier dargestellten Ablaufdiagramme zeigen Beispiele für Sequenzen verschiedener Prozessaktionen. Auch wenn sie in einer bestimmten Sequenz oder Reihenfolge dargestellt sind, kann die Reihenfolge der Aktionen, sofern nicht anders angegeben, geändert werden. Demnach sollten die dargestellten Implementierungen nur als Beispiele verstanden werden, und die dargestellten Prozesse können in einer anderen Reihenfolge ausgeführt werden, und einige Aktionen können parallel ausgeführt werden. Darüber hinaus kann bzw. können eine bzw. mehrere Aktionen in verschiedenen Ausführungsformen ausgelassen werden; demnach sind nicht alle Aktionen in jeder Implementierung erforderlich. Weitere Prozessabläufe sind möglich.
  • Bilddaten (hier alternativ auch als ”vorab gespeicherte” Bilddaten bezeichnet, um die Daten von den Bilddaten zu unterscheiden, die durch die mobile Computervorrichtung erfasst werden) und 3D-Punktwolkendaten, die den Bilddaten entsprechen, werden verarbeitet, um mindestens ein Flächensegment 200 zu extrahieren. In einigen Ausführungsformen, wie im Folgenden beschrieben, werden diese 3D-Punktwolkendaten vorab verarbeitet, um die Daten besser auf nachfolgende Operationen anzupassen (z. B. werden die Daten basierend auf der Auflösung der erfassten Bilddaten oder den auf dem mobilen Computersystem verfügbaren Rechenressourcen heruntergetaktet).
  • In einer Ausführungsform sind die vorab gespeicherten Bilddaten ein Bild von mindestens einem Objekt. Das extrahierte Flächensegment wird mit dem Objekt verknüpft. Beispielsweise können die vorab gespeicherten Bilddaten, wie zuvor beschrieben, ein Bild eines Gebäudes enthalten, wobei das extrahierte Flächensegment eine Ebene des Gebäudes sein wird.
  • Bilddaten des Objekts werden über einen Bildsensor erfasst, der in einer mobilen Computervorrichtung 210 enthalten ist. Es versteht sich, dass die erfassten Bilddaten folgendes enthalten können: ein statisches Bild, Videodaten oder eine Echtzeitdarstellung des Ziels des Bildsensors (z. B. der Live-Ansicht von 1) Es wird ein zweites Flächensegment erzeugt, wobei das zweite Flächensegment zum Objekt im erfassten Bild 220 gehört. Dieses Flächensegment stimmt geometrisch mit dem Objekt überein, wie es in den erfassten Bilddaten dargestellt wird (z. B. eine Seite eines Gebäudes, das in der erfassten Live-Ansicht wie in 1 beschrieben enthalten ist). Das zweite Flächensegment kann zumindest teilweise basierend auf den erfassten Bilddaten, den in Operation 200 beschriebenen vorab gespeicherten Daten und dem mindestens einen in Operation 200 beschriebenen Flächensegment erzeugt werden.
  • Das zweite Flächensegment wird mit den erfassten Bilddaten integriert (hier alternativ als registriert bezeichnet) 230. In einer Ausführungsform gehören die erfassten Bilddaten zu einer Live-Ansicht einer mobilen Computervorrichtung, und somit wird das mindestens eine Flächensegment mit der Live-Ansicht integriert.
  • Die erfassten Bilddaten werden mit zusätzlichen Inhalten im zweiten Flächensegment erweitert, 240. Die zusätzlichen Inhalte gehören zum jeweiligen Objekt, das von dem mindestens einen Flächensegment dargestellt wird. Es versteht sich, dass die zusätzlichen Inhalte geometrisch übereinstimmend mit dem zweiten Flächensegment im erweiterten Bild angezeigt werden, 250.
  • 3 zeigt Bilddaten, 3D-Punktwolkendaten und Flächensegmente, die von Ausführungsformen der Erfindung verarbeitet werden können. Die 3D-Punktwolke 350 entspricht dem vorab gespeicherten 2D-Bild 300 des Gebäudes 305. Jeder 3D-Punkt in der Wolke 350 stellt den tatsächlichen 3D-Standort eines Pixels des Bildes 300 dar. Einige Pixel im Bild 300 haben möglicherweise keinen entsprechenden 3D-Punkt, z. B. Pixel im Himmel.
  • In einigen Ausführungsformen werden 3D-Punktwolkendaten 350 in ein Koordinatensystem umgewandelt, das für die nachfolgende Verarbeitung besser geeignet ist. Wenn beispielsweise die 3D-Punktwolkendaten 350 im Format ”Breitengrad, Längengrad und Höhe” vorliegen, ist es möglicherweise nützlicher, das Format in ein lokales Koordinatensystem, wie z. B. ENU-System (East-North-Up) umzuwandeln, damit die Werte der Koordinaten kleiner sind (d. h. im Vergleich zu Koordinaten in einem System mit dem Erdmittelpunkt als Ursprung). Diese Umwandlung kann die vertikale und horizontale Ausrichtung der 3D-Punktwolkendaten 350 besser vermitteln.
  • In einigen Ausführungsformen entstehen 3D-Punktwolkendaten 350 aus einem größeren Satz mit 3D-Punktwolkendaten, die für die Beschleunigung der Berechnung unterabgetastet werden. Dies kann durch das Downsampling bzw. die Verringerung der Bildpunkte des vorab gespeicherten Bildes oder der entsprechenden 3D-Punktwolke erreicht werden. Beispiel: Für ein 300 × 500 Bild muss die Größe der entsprechenden 3D-Punktwolkendaten aus bis zu 150.000 Punkten bestehen. Durch Sampling bzw. Abtasten des Bildes mit einer Rate 10 in sowohl horizontalen als auch vertikalen Dimensionen kann die Anzahl der 3D-Punkte auf 1.500 Punkte reduziert werden.
  • Um die Ebenen aus den 3D-Punktwolkendaten 350 zu extrahieren, können die Ausführungsformen der Erfindung einen RANSAC-Ansatz (Random Sample Consensus, deutsch etwa „Übereinstimmung mit einer zufälligen Stichprobe”) übernehmen und sowohl das vorab gespeicherte Bild 300 als auch die 3D-Punktwolkendaten 350 kombinieren, um den Abtastprozess lieber in RANSAC als durch willkürliches Abtasten der 3D-Punktwolkendaten zu führen. 4 ist ein Ablaufdiagramm für die Verarbeitung von 3D-Punktwolkendaten und das Extrahieren von Flächensegmenten nach einer Ausführungsform der Erfindung.
  • Nref Pixel von einem Bild werden zufällig ausgewählt 410. Eine Reihe von Operationen wird für jedes Pixel ausgeführt (d. h. ein Referenz-Pixel wird ausgewählt 420). Diese Operationen werden im Folgenden beschrieben.
  • In einer örtlichen Umgebung, d. h. ein W × W-Fenster um das Referenz-Pixel, werden zwei weitere Pixel zufällig ausgewählt, sodass die drei Pixel nicht kollinear sind 430. Die Normale Nref in IR3 zur Ebene (Pref), die durch die 3D-Punkte gebildet wird, die den drei Pixeln entsprechen, wird als ein Vektorprodukt berechnet 440. Für diese Operation kann vorausgesetzt werden, dass es für 3D-Punkte, die benachbarten Pixeln entsprechen, wahrscheinlicher ist, dass sie auf derselben Ebene liegen. Folglich versteht es sich, dass sich durch Anwenden dieser Positionsbeschränkung zum Ermitteln koplanarer 3D-Punkte die Verarbeitung entsprechend der Ausführungsform im Vergleich zum willkürlichen Abtasten der 3D-Punktwolkendaten auf dominanten Ebenen schneller annähert.
  • Für jeden 3D-Punkt, (hier als Punkt M in IR3 bezeichnet) wird festgestellt, ob er auf der Ebene (Pref) liegt und sein Projektionsfehler auf der Ebene (Pref: E = [nref.(M-Mref)]2) wird berechnet, wobei Mref der 3D-Punkt ist, der dem Referenzpixel entspricht, 450. Wenn der Fehler E kleiner als die Toleranzgrenze ε ist, d. h. E < ε, dann wird angenommen, dass der Punkt M auf der Ebene liegt (Pref) 460.
  • Der standardisierte Wert der Ebene (Pref) wird dann als normalisierte Zahl an ”zugehörigen” 3D-Punkten berechnet: scoreref = |{M in (Pref)}|/N, wobei N die Gesamtzahl der Punkte in den 3D-Punktwolkendaten ist 470.
  • Der größte standardisierte Wert in den von Nref erhaltenen standardisierten Werten wird ausgewählt 480. Wenn dieser größer als die Grenze L ist, d. h. scoreref > L, dann wird die Ebene (Pref) als eine ”extrahierte” Ebene ausgewählt, und die Kleinste-Quadrate-Schätzung des Normalenvektors und Fehlers wird erhalten 490. Alle Punkte M, die zur extrahierten Ebene ”gehören”, d. h. deren Projektionsfehler für diese Ebene kleiner als die Toleranzgrenze ε von der 3D-Punktwolke ist, können aus der nachfolgenden Verarbeitung ausgeschlossen werden.
  • Sobald alle Ebenen extrahiert wurden, und wobei davon ausgegangen wird, dass mehr als eine Ebene extrahiert wurde, können Ausführungsformen der Erfindung die extrahierten Ebenen weiterhin verfeinern. 5 ist ein Ablaufdiagramm eines Prozesses zum Verfeinern extrahierter Ebenen gemäß einer Ausführungsform der Erfindung.
  • Zu einem vorab gespeicherten Bild zugehörige Daten können zum Bestimmen von Kriterien zum Filtern fehlerhafter Ebenen verwendet werden 500. Beispiel: In urbanen Szenen sind Gebäude typischerweise die dominanten Strukturen. Daher muss für den Erhalt von groben 3D-Modellen, wenn es sich bei dem vorab gespeicherten Bild um eine urbane Szene handelt, dann davon ausgegangen werden, dass die meisten Ebenen voraussichtlich entweder vertikal oder horizontal sind.
  • Ebenen, die diese Filterkriterien nicht erfüllen, werden eliminiert 510. Daher werden in diesem Beispiel die extrahierten Ebenen, die weder vertikal noch horizontal sind, eliminiert und die 3D-Punkte, die zu ihnen gehören, werden nicht zu einer beliebigen Ebene zugewiesen.
  • Jede der nicht eliminierten Ebenen kann auch mit ähnlich verarbeiteten Ebenen verglichen werden, d. h. Ebenen mit ähnlichen Normalenvektoren und Fehlern, und nur die extrahierte Ebene mit der größten Anzahl an Punkten wird beibehalten, 520.
  • Wenn keine verbleibenden Ebenen mehr zum Verarbeiten übrig sind, 525, werden die übrigen 3D-Punkte, die keiner Ebene zugewiesen sind, verarbeitet, 530. Für jeden übrigen nicht zugewiesenen 3D-Punkt wird sein Projektionsfehler zu jeder verfeinerten extrahierten Ebene berechnet und der Mindesprojektionsfehler und die entsprechende Ebene (Pmin) werden ausgewählt, 540. Die Toleranzgrenze kann von ε auf ε' = Faktor × ε erhöht werden. Wenn der Mindestprojektionsfehler geringer als ε', 545, dann wird der 3D-Punkt der entsprechenden Ebene (Pmin) zugewiesen, 550; andernfalls wird er verworfen, 555. Beispiel: Angenommen, die resultierenden extrahierten Ebenen für 3D-Punktwolkendaten 350 wären Ebenen 390, 391 und 392.
  • Demnach kann das Ergebnis des Beispielprozesses, der durch 5 beschrieben wird, eine Maske der 3D-Punktwolkendaten sein, die jeden 3D-Punkt und seinen entsprechenden Pixel einer Ebene zuordnet. Diese Maske kann für die Erstellung einer kompakteren und höheren Darstellung der erfassten Bilddaten verwendet werden. In 3 haben die meisten der 3D-Punkte/Pixel der rechten Gebäudewand 305 dieselbe Farbe (z. B. grün, auch wenn dies nicht in Farbe in der Figur dargestellt ist). Anstatt diese Daten als Paare von 3D-Punkten/Pixeln und entsprechenden Ebenenindizes zu speichern, können Ausführungsformen der Erfindung den Gesamtbereich angeben, der von den grün-codierten Pixeln auf der rechten Wand belegt ist (z. B. Bestimmen des Bounding-Polygons). Darüber hinaus können die Bereiche, die weit voneinander entfernt liegen und sich in derselben Ebene befinden, als Cluster angeordnet sein. Informationen höherer Ebene bezüglich des Gebäudes 305 können für das passende Cluster der Ebenen erhalten werden. Beispiel: Die gleichfarbigen Pixel können in separaten Cluster angeordnet werden, die zwei verschiedenen Abschnitten der rechten Gebäudewand 305 entsprechen, wie in 6 gezeigt.
  • In dieser Ausführungsform umfassen die 3D-Punktwolkendaten 350 die Cluster 600 und 610, die der rechten Gebäudewand 350 entsprechen (wie in 3 beschrieben). Informationen hoher Ebene können verwendet werden, um zu bestimmen, ob sich auf der Wand eine Werbetafel befindet. Ausführungsformen der Erfindung können daher Flächensegmente gemäß jedes einzelnen Segments der Wand custern – d. h. das Cluster 600 wächst in das Flächensegment 620 (das der Wand entspricht) und das Cluster 610 in das Flächensegment 630 (das der Werbetafel entspricht) hinein.
  • Im Fall von Gebäuden kann das gewünschte Endergebnis ein Satz angrenzender Rechtecke der Gebäudewände sein. Wenn die 3D-Punktwolkendaten und das vorab gespeicherte Bild zu einer urbanen Gegend gehören, kann angenommen werden, dass die meisten 3D-Punkte, die zu vertikalen Ebenen gehören, den Wänden des Gebäudes entsprechen. Daher ist das Ziel, sich an die vertikalen Flächensegmente durch Rechtecke anzunähern, gerechtfertigt.
  • In einer Ausführungsform der Erfindung werden die Informationen sowohl im Bild als auch in den 3D-Punktwolkendaten wirksam zum Cluster von Ebenen durch Verwenden von Bereichswachstum in der 3D-Punktwolke eingesetzt. Der Ähnlichkeitsabstand zwischen zwei 3D-Punkten ist der Abstand in Pixeln zwischen den entsprechenden Pixeln. Das Verarbeiten von Operationen kann sich über jeder Ebene wiederholen, eine Anzahl von n Kernen wird gewählt und Flächensegmente entstehen um sie herum.
  • 7 ist ein Ablaufdiagramm eines Prozesses zum Einbinden von Flächensegmenten gemäß einer Ausführungsform der Erfindung. Der Prozess 700 wird auf die Segmente in einem Cluster ausgeführt, das zu einer wie oben beschriebenen urbanen Kulisse gehört. Beim weiteren Anwenden von Ausführungsformen der Erfindung auf ein bekanntes Bild einer urbanen Kulisse als ein Beispiel werden vertikale Segmente ausgewählt, 710. Für jedes vertikale Segment werden zwei 3D-Extrempunkte mit maximalen und minimalen vertikalen Koordinaten gefunden, 720. Somit werden die oberen und unteren horizontalen Kanten der Bounding-Box erlangt und die Richtung in der Ebene kann basierend auf diesen Punkten bestimmt werden, 730. Die anderen beiden 3D-Extrempunkte, die maximale und minimale Koordinaten in der horizontalen Richtung innerhalb des Segments haben, werden auch gefunden, 740. Mithilfe dieser Extrempunkte und der Ebenrichtung können die zwei vertikalen Kanten der Bounding-Box dieses Segments bestimmt werden, 750.
  • In einigen Ausführungsformen können mehrere 2D-Bilder eines Objekts oder einer Szene von verschiedenen Blickwinkeln gemeinsam mit und entsprechend der 3D-Punktwolkendatensätzen aus unterschiedlichen Blickwinkeln vorab gespeichert werden. Diese Punktwolkendatensätze können überlappen. In diesen Ausführungsformen können alle Punktwolkendaten zusammengefasst werden, um die Genauigkeit der extrahierten Flächensegmente zu verbessern. Zum Identifizieren der überlappenden Bereiche können die Sätze der Punktwolkendaten auf eine örtliche Umgebung beschränkt werden, und zugehörige Punktwolkeninformationen können zusammengefasst werden.
  • Es versteht sich, dass die verschiedenen Aufgaben zum Extrahieren von Ebenen, Kombinieren von Punktwolkendaten und zum Entfernen von Rauschen in unterschiedlichen Reihenfolgen in verschiedenen Prozessen ausgeführt werden können. In einer Ausführungsform wird jeder einzelne Satz mit Punktwolkendaten als ein Satz mit Rauschen in den Messungen (die Quellen für das Rauschen können die Messunsicherheit, ihre Ausrichtung, Sensorrauschen usw. umfassen) der tatsächlichen 3D-Punkte modelliert. Danach können eine Schätzung der Statistiken für das Rauschen und die ursprünglichen 3D-Punkte in den überlappenden Bereichen erlangt werden. Diese Statistiken für Rauschen können für den Erhalt besserer Schätzungen für die 3D-Punkte für alle Sätze mit Punktwolkendaten verwendet werden, um die Ebenen zu extrahieren. Es versteht sich, dass die 3D-Punkte in dem Überlappungsbereich die genausten Schätzungen aufweisen, und daher kann diesen Punkten eine Priorität beim Schätzen der Ebenen gegeben werden, zu denen sie gehören (beispielsweise können gewichtete kleinste Quadrate für eine Schätzung der Ebenenparameter verwendet werden, wobei diesen Punkten mehr Gewichtungen zugewiesen werden).
  • In einer anderen Ausführungsform wird das Extrahieren von Ebenen für jeden einzelnen Satz mit 3D-Punktwolkendaten separat ausgeführt. Überlappende Ebenen können basierend auf ihren ähnlichen Normalenvektoren und deren lokale Nähe ermittelt werden. Für jeden Satz überlappender Ebenen werden alle zugehörigen 3D-Punktwolkendaten erfasst, um eine neue (d. h. genauere) Schätzung der Ebene basierend auf dieser größeren Sammlung Punkte zu erstellen.
  • In einer Ausführungsform werden zugehörige Informationen zur Konfidenz bzw. Zuverlässigkeit, die mit den 3D-Punktwolkendaten verknüpft sind, erhalten. Diese zusätzlichen Informationen können gemeinsam mit den 3D-Punktwolkendaten wirksam eingesetzt werden, um die Zuverlässigkeit für 3D-Punktmessungen abzuleiten.
  • Beispielsweise kann der oben beschriebene Algorithmus zum Extrahieren von Ebenen angepasst werden, indem die 3D-Punkte mit höherer Wahrscheinlichkeit mehr zu der Schätzung der Ebenen beitragen dürfen. Das Abtastverfahren in RANSAC kann beeinflusst sein, um mehr der von den zuverlässigeren 3D-Punkten abzutasten. Darüber hinaus können eher gewichtete kleinste Quadrate als nur kleinste Quadrate für die Schätzung der Ebenenparameter verwendet werden. Die Gewichtungen wären proportional oder eine steigende Funktion der Zuverlässigkeitswerte der 3D-Punkte.
  • In einer Ausführungsform können Farbinformationen verwendet werden, um Ebenen genauer aus 3D-Punktwolkendaten zu extrahieren. Beispielsweise können sowohl Farbinformationen als auch Pixelabstand kombiniert werden, um den Ähnlichkeitsabstand des oben beschriebenen wachsenden Bereichswachstumsprozesses zu bilden. In dieser Ausführungsform tendieren 3D-Punkte, die sich in derselben Ebene befinden und einen kleinen Pixelabstand sowie ähnliche Farben haben (d. h. sie entsprechen den Pixeln in derselben Farbe in den vorab gespeicherten Bildern) dazu, demselben Flächensegment zugewiesen zu werden.
  • Es versteht sich, dass die Flächensegmente, die aus den 3D-Punktwolkendaten extrahiert werden, ein grobes 3D-Modell der vorab gespeicherten Bilddaten bilden. Diese Daten können zum Extrahieren eines Flächensegments aus den erfassten Bilddaten verwendet werden. Daher können die Flächensegmente im 3D-Modell mit den erfassten Bilddaten und den vorab gespeicherten Bilddaten verarbeitet (d. h. integriert) werden, wodurch es möglich wird, erfasste Bilddaten mit dem groben 3D-Modell zu registrieren.
  • Durch die Registrierung des groben 3D-Modells wird es mehreren Anwendungen ermöglicht, Daten innerhalb der jeweiligen Flächensegmente (d. h. statische Bilder und Video) zu projizieren. Mit anderen Worten: Der Benutzer kann ein Bild mit der mobilen Computervorrichtung aufnehmen und es in der richtigen Perspektive im Modell entweder auf einer mobilen Computervorrichtung oder auf dem Desktop registrieren. Ähnlich wie bei Videobilddaten kann die registrierte Live-Ansicht in Echtzeit um weitere Informationen, wie z. B. Text, Bilder, Videos oder eine 3D-Struktur erweitert werden, die in der richtigen Perspektive hinzugefügt werden (wie z. B. in 1 beschrieben).
  • In einer Ausführungsform verwendet eine mobile Computervorrichtung Systemkomponenten und Anwendungen (z. B. Global Positioning System(GPS)-Sensoren, Funk- oder WiFi-Netzwerkverbindungen, Orientierungssensoren), um den Standort der Vorrichtung und den Blickwinkel ihres Bildsensors einzugrenzen. Auf Seiten des groben 3D-Modells können Standort- und Orientierungsinformationen gemeinsam mit zugehörigen vorab gespeicherten Bilddaten (d. h. Referenzmodelle) des ungefähren Standorts, dessen Ansichten nahe der ungefähren Ansicht sind, verwendet werden, um visuelle Merkmale aus diesen Bildern zu extrahieren. Somit erzeugt die obige Verarbeitung Flächensegmente mit entsprechenden visuellen Merkmalen, d. h. die Referenzmodelle, die von den Registrierungsprozessen verwendet werden sollen.
  • In einer Ausführungsform werden die visuellen Merkmale aus dem Bild oder dem Videoframe auf der mobilen Vorrichtung extrahiert und mit den visuellen Merkmalen in den Referenzmodellen (d. h. vorab gespeicherten Bildern) abgeglichen. 8 zeigt diese Art von Abgleich.
  • Mehrere Homografien 810 werden von den Übereinstimmungen der Punkte 820 des vorab gespeicherten Bildes 830 des Objekts 800 im erfassten Bild 890 geschätzt (in diesem Beispiel ist das Objekt 800 ein Gemälde an einer Wand). In diesem Beispiel ist die Annahme einer Homografie-Transformation wegen der in der Szene und vom Objekt 800 angenommenen Flächenstruktur gültig. Danach wird jede Homografie-Matrix in die Bildsensorrotation und Umwandlungsparameter zerlegt. Diese einzelnen Parameter können kombiniert werden, um eine rauschärmere Version der Rotations- und Umwandlungsparameter für die Erzeugung eines übereinstimmenden Ebenenobjekts 830 zu erhalten.
  • Daher können das Objekt 800 und die Perspektive, in der es von einem Bildsensor erfasst wurde, identifiziert werden. Zugehörige Bilddaten können innerhalb des Flächensegments 850, das dem Objekt entspricht (z. B. wie oben beschrieben ein Symbol, Textdaten, Bilddaten), gezeigt werden.
  • 9 ist ein Blockdiagramm eines Systems, das eine Ausführungsform der Erfindung umfassen kann. System 900 kann das Modul für die Vorabverarbeitung 910 zum Ausführen von Operationen im Zusammenhang mit vorab gespeicherten Bildern und 3D-Punktwolkendaten umfassen, um Flächensegmente wie oben beschrieben zu erzeugen. System 900 kann ferner einen Bildsensor 920 zum Erfassen von Bilddaten wie oben beschrieben umfassen.
  • Das Modul für das Extrahieren von Ebenen 930 kann vorab die gespeicherten Bilder, die erfassten Bilder und ihre zugehörigen Flächensegmente verarbeiten, um eine Ebene zu extrahieren, die wie oben beschrieben zu einem Objekt gehört. Das Registrierungsmodul 940 kann die erfassten Bilddaten mit zugehörigen Inhalten in dem extrahierten Flächensegment wie oben beschrieben erweitern. Die erweiterten Bilddaten können auf einem Display 950 angezeigt werden.
  • In dieser Ausführungsform werden die Module 910, 930 und 940 über den Prozessor 960 ausgeführt. Alle oben beschriebenen Komponenten des Systems 900 können über den Bus 970 wirksam miteinander gekoppelt werden. Es versteht sich, dass die verschiedenen Module, die in 9 beschrieben sind, alle in einer mobilen Computervorrichtung oder separat in unterschiedlichen Standorten (d. h. eines oder alle der Module in 9 können in einem Server enthalten sein, der über eine Schnittstelle mit einer mobilen Computervorrichtung für die Bereitstellung von ”Backend-Verarbeitung” verbunden ist) enthalten sein können. Ferner versteht es sich, dass es sich bei den zu den beschriebenen Modulen zugehörigen Operationen nur um Beispielausführungen handelt, und dass jede der oben beschrieben Operationen über mehrere wirksam miteinander gekoppelte Vorrichtungen ausgeführt werden kann.
  • Verschiedene Komponenten, die im vorliegenden Text als Prozesse, Server oder Werkzeuge beschrieben sind, können Mittel zum Ausführen der beschriebenen Funktionen sein. Jede im vorliegenden Text beschriebene Komponente umfasst Software oder Hardware oder eine Kombination davon. Jede einzelne und alle Komponenten können als Softwaremodule, Hardwaremodule, Spezialhardware (z. B. anwendungsspezifische Hardware, ASICs, DSPs usw.) implementiert werden, eingebettete Controller, festverdrahtete Schaltkreise, Hardwarelogik usw. Softwareinhalte (z. B. Daten, Anweisungen, Konfiguration) können über einen Fertigungsartikel bereitgestellt werden, umfassend ein nicht transitorisches, greifbares computer- oder maschinenlesbares Speichermedium, das Inhalte bereitstellt, die ausführbare Anweisungen darstellen. Die Inhalte können dazu führen, dass ein Computer verschiedene im vorliegenden Text beschriebene Funktionen/Operationen ausführt. Ein computerlesbares Speichermedium umfasst Mechanismen, die Informationen in einer Form bereitstellen (d. h. speichern und/oder übertragen), die von einem Computer (z. B. Computervorrichtung, elektronisches System usw.) abgerufen werden können, wie z. B. aufzeichnungsfähige/nicht-aufzeichnungsfähige Medien (z. B. Read Only Memory (ROM), Random Access Memory (RAM), Magnetplattenspeichermedien, optische Speichermedien, Flashspeichervorrichtung usw.). Die Inhalte können direkt ausführbar (”Objekt” oder ”ausführbare” Form), Quellcode oder Differenzcode (”Delta”- oder ”Patch”-Code) sein. Ein computerlesbares Speichermedium kann auch Speicher oder eine Datenbank umfassen, aus dem bzw. der Inhalte heruntergeladen werden können. Ein computerlesbares Medium kann auch eine Vorrichtung oder ein Produkt umfassen, auf der bzw. dem zum Zeitpunkt des Verkaufs oder der Lieferung Inhalte gespeichert sind. Daher kann die Auslieferung einer Vorrichtung mit gespeicherten Inhalten oder das Angebot von Inhalten zum Download über ein Kommunikationsmedium als Bereitstellen eines Fertigungsartikels mit derartigen im vorliegenden Text beschriebenen Inhalten verstanden werden.

Claims (20)

  1. Vorrichtung zum Erweitern von Bilddaten umfassend: Mittel zum Verarbeiten erster Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten, wobei das erste Flächensegment mit einem Objekt verknüpft ist, das in den ersten Bilddaten enthalten ist; Mittel zum Erzeugen eines zweiten Flächensegments, das zu dem Objekt gehört, wie es in zweiten Bilddaten erfasst wurde, basierend zumindest teilweise auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment, wobei die zweiten Bilddaten über einen Bildsensor erfasst werden, der in einer mobilen Computervorrichtung enthalten ist, wobei die zweiten Bilddaten das Objekt enthalten; und Mittel zum geometrisch mit dem zweiten Flächensegment übereinstimmenden Erweitern der zweiten Bilddaten mit Inhalten, die mit dem Objekt verknüpft sind.
  2. Vorrichtung nach Anspruch 1, wobei die Mittel zum Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten zum Extrahieren des ersten Flächensegments Mittel zum Bestimmen der Form und Ausrichtung des ersten extrahierten Flächensegments basierend auf Metadaten, die mit den ersten Bilddaten verknüpft sind, umfassen, wobei die Metadaten geografische Informationen zu den ersten Bilddaten oder Daten enthalten, die zum Objekt gehören, das in den ersten Bilddaten erfasst wurde.
  3. Vorrichtung nach Anspruch 1, wobei das Generieren des zweiten Flächensegments, das zu dem Objekt gehört, wie es in den zweiten Bilddaten erfasst wurde, zumindest teilweise auf den zweiten Bilddaten basiert, wobei die ersten Bilddaten und das erste Flächensegment das Abstimmen des ersten Flächensegments mit dem Objekt umfasst, das in den zweiten Bilddaten basierend auf den Farbdaten des Objekts, das in den ersten Bilddaten erfasst wurde, erfasst wird.
  4. Vorrichtung nach Anspruch 1, wobei die Mittel zum Verarbeiten der 3D-Punktwolkendaten Mittel zum Downsampling der 3D-Punktwolkendaten umfasst.
  5. Vorrichtung nach Anspruch 1, wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten zum Extrahieren des ersten Flächensegments aus den 3D-Punktwolkendaten ferner auf Zuverlässigkeitsdaten basiert, die mit den Datenpunkten der 3D-Punktwolkendaten verknüpft sind.
  6. Vorrichtung nach Anspruch 1, wobei die zweiten Bilddaten eine Live-Ansicht umfassen, die vom Bildsensor der mobilen Computervorrichtung erfasst wurde, und die mit dem Objekt verknüpften Inhalte Text, statische Bilddaten oder Videobilddaten umfassen.
  7. Vorrichtung nach Anspruch 1, wobei die 3D-Punktwolkendaten Folgendes umfassen: einen ersten Satz mit 3D-Punktwolkendaten, die aus einer ersten Perspektive erfasst wurden; und einen zweiten Satz mit 3D-Punktwolkendaten, die aus einer zweiten Perspektive erfasst wurden, und wobei die Mittel zum Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten weiterhin zum Extrahieren des ersten Flächensegments aus den 3D Punktwolkendaten Folgendes umfasst: Mittel zum Verarbeiten des ersten Satzes mit 3D-Punktwolkendaten und der ersten Bilddaten zum Extrahieren eines ersten Anfangsflächensegments; Mittel zum Verarbeiten des zweiten Satzes mit 3D-Punktwolkendaten und der ersten Bilddaten zum Extrahieren eines zweiten Anfangsflächensegments; und Mittel zum Kombinieren des ersten und zweiten Anfangsflächensegments zum Bilden des ersten Flächensegments.
  8. System zum Erweitern von Bilddaten umfassend: mindestens einen Prozessor; ein Display; Software, die über den bzw. die Prozessoren ausgeführt wird zum Verarbeiten erster Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten, wobei das erste Flächensegment mit einem Objekt verknüpft ist, das in den ersten Bilddaten enthalten ist; Generieren eines zweiten Flächensegments, das zu dem Objekt gehört, wie es in den zweiten Bilddaten erfasst wurde, zumindest teilweise basierend auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment, geometrisch mit dem zweiten Flächensegment übereinstimmenden Erweitern der zweiten Bilddaten mit Inhalten, die mit dem Objekt verknüpft sind, Anzeigen des zweiten Bildes mit den erweiterten Inhalten, die mit dem Objekt auf dem Display verknüpft sind; und einen Bildsensor zum Erfassen der zweiten Bilddaten, die das Objekt enthalten.
  9. System nach Anspruch 8, wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten zum Extrahieren des ersten Flächensegments das Bestimmen der Form und Ausrichtung des ersten extrahierten Flächensegments basierend auf Metadaten, die mit den ersten Bilddaten verknüpft sind, umfasst, wobei die Metadaten geografische Informationen zu den ersten Bilddaten oder Daten enthalten, die zum Objekt gehören, das in den ersten Bilddaten erfasst wurde.
  10. System nach Anspruch 8, wobei das Generieren des zweiten Flächensegments, das zu dem Objekt gehört, wie es in den zweiten Bilddaten erfasst wurde, zumindest teilweise auf den zweiten Bilddaten basiert, wobei die ersten Bilddaten und das erste Flächensegment das Abstimmen des ersten Flächensegments mit dem Objekt umfasst, das in den zweiten Bilddaten basierend auf den Farbdaten des Objekts, das in den ersten Bilddaten erfasst wurde, erfasst wird.
  11. System nach Anspruch 8, wobei das Verarbeiten der 3D-Punktwolkendaten das Downsampling der 3D-Punktwolkendaten umfasst.
  12. System nach Anspruch 8, wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten zum Extrahieren des ersten Flächensegments aus den 3D-Punktwolkendaten ferner auf Zuverlässigkeitsdaten basiert, die mit den Datenpunkten der 3D-Punktwolkendaten verknüpft sind.
  13. System nach Anspruch 8, wobei die zweiten Bilddaten eine Live-Ansicht umfassen, die vom Bildsensor der mobilen Computervorrichtung erfasst wurde, und die Inhalte Text, statische Bilddaten oder Videobilddaten umfassen.
  14. System nach Anspruch 8, wobei die 3D-Punktwolkendaten Folgendes umfassen: einen ersten Satz mit 3D-Punktwolkendaten, die aus einer ersten Perspektive erfasst wurden; und einen zweiten Satz mit 3D-Punktwolkendaten, die aus einer zweiten Perspektive erfasst wurden, und wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten weiterhin zum Extrahieren des ersten Flächensegments aus den 3D-Punktwolkendaten Folgendes umfasst: Verarbeiten des ersten Satzes mit 3D-Punktwolkendaten und der ersten Bilddaten zum Extrahieren eines ersten Anfangsflächensegments; Verarbeiten des zweiten Satzes mit 3D-Punktwolkendaten und der ersten Bilddaten zum Extrahieren eines zweiten Anfangsflächensegments; und Kombinieren des ersten und zweiten Anfangsflächensegments zum Bilden des ersten Flächensegments.
  15. Verfahren zum Erweitern von Bilddaten umfassend: Verarbeiten erster Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten, wobei das erste Flächensegment mit einem Objekt verknüpft ist, das in den ersten Bilddaten enthalten ist; Empfangen zweiter Bilddaten, die über einen in einer mobilen Computervorrichtung enthaltenen Bildsensor erfasst werden, wobei die zweiten Bilddaten das Objekt enthalten; Generieren eines zweiten Flächensegments, das zu dem Objekt gehört, wie es in den zweiten Bilddaten erfasst wurde, zumindest teilweise basierend auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment; und geometrisch mit dem zweiten Flächensegment übereinstimmendes Erweitern der zweiten Bilddaten mit Inhalten, die mit dem Objekt verknüpft sind,
  16. Verfahren nach Anspruch 15, wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten zum Extrahieren des ersten Flächensegments das Bestimmen der Form und Ausrichtung des ersten extrahierten Flächensegments basierend auf Metadaten, die mit den ersten Bilddaten verknüpft sind, umfasst, wobei die Metadaten geografische Informationen zu den ersten Bilddaten oder Daten enthalten, die zum Objekt gehören, das in den ersten Bilddaten erfasst wurde.
  17. Verfahren nach Anspruch 15, wobei das Generieren des zweiten Flächensegments, das zu dem Objekt gehört, wie es in den zweiten Bilddaten erfasst wurde, zumindest teilweise auf den zweiten Bilddaten basiert, wobei die ersten Bilddaten und das erste Flächensegment das Abstimmen des ersten Flächensegments mit dem Objekt umfasst, das in den zweiten Bilddaten basierend auf den Farbdaten des Objekts, das in den ersten Bilddaten erfasst wurde, erfasst wird.
  18. Verfahren nach Anspruch 15, wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten zum Extrahieren des ersten Flächensegments aus den 3D-Punktwolkendaten ferner auf Zuverlässigkeitsdaten basiert, die mit den Datenpunkten der 3D-Punktwolkendaten verknüpft sind.
  19. Verfahren nach Anspruch 15, wobei die zweiten Bilddaten eine Live-Ansicht umfassen, die vom Bildsensor der mobilen Computervorrichtung erfasst wurde, und die Inhalte Text, statische Bilddaten oder Videobilddaten umfassen.
  20. Verfahren nach Anspruch 15, wobei die 3D-Punktwolkendaten Folgendes umfassen: einen ersten Satz mit 3D-Punktwolkendaten, die aus einer ersten Perspektive erfasst wurden; und einen zweiten Satz mit 3D-Punktwolkendaten, die aus einer zweiten Perspektive erfasst wurden, und wobei das Verarbeiten der ersten Bilddaten und der 3D-Punktwolkendaten weiterhin zum Extrahieren des ersten Flächensegments aus den 3D Punktwolkendaten Folgendes umfasst: Verarbeiten des ersten Satzes mit 3D-Punktwolkendaten und der ersten Bilddaten zum Extrahieren eines ersten Anfangsflächensegments; Verarbeiten des zweiten Satzes mit 3D-Punktwolkendaten und der ersten Bilddaten zum Extrahieren eines zweiten Anfangsflächensegments; und Kombinieren des ersten und zweiten Anfangsflächensegments zum Bilden des ersten Flächensegments.
DE112011103221T 2010-09-24 2011-09-26 Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten Pending DE112011103221T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/890,251 2010-09-24
US12/890,251 US8872851B2 (en) 2010-09-24 2010-09-24 Augmenting image data based on related 3D point cloud data
PCT/US2011/053271 WO2012040709A2 (en) 2010-09-24 2011-09-26 Augmenting image data based on related 3d point cloud data

Publications (1)

Publication Number Publication Date
DE112011103221T5 true DE112011103221T5 (de) 2013-09-19

Family

ID=45870201

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011103221T Pending DE112011103221T5 (de) 2010-09-24 2011-09-26 Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten

Country Status (5)

Country Link
US (1) US8872851B2 (de)
CN (1) CN102959946B (de)
DE (1) DE112011103221T5 (de)
TW (1) TWI483215B (de)
WO (1) WO2012040709A2 (de)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
KR101907081B1 (ko) * 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
EP2602588A1 (de) * 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Positions- und Ausrichtungsbestimmung in 6-DOF
EP2795907A4 (de) * 2011-12-22 2015-07-15 Ericsson Telefon Ab L M Verfahren und prozessor zur darstellung von 3d-szenen
US20140314327A1 (en) * 2013-03-13 2014-10-23 Build-A-Bear Workshop, Inc. Systems and Methods for Computer Recognition of Plush Toys
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9547901B2 (en) * 2013-11-05 2017-01-17 Samsung Electronics Co., Ltd. Method and apparatus for detecting point of interest (POI) in three-dimensional (3D) point clouds
CN104616278B (zh) * 2013-11-05 2020-03-17 北京三星通信技术研究有限公司 三维点云兴趣点检测方法和系统
US9704055B2 (en) * 2013-11-07 2017-07-11 Autodesk, Inc. Occlusion render mechanism for point clouds
US9633483B1 (en) * 2014-03-27 2017-04-25 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US9600892B2 (en) * 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
CN104715120B (zh) * 2015-03-30 2019-08-23 英华达(上海)科技有限公司 3d模型的扩充方法
US10033941B2 (en) * 2015-05-11 2018-07-24 Google Llc Privacy filtering of area description file prior to upload
CN105261061B (zh) * 2015-09-07 2018-10-26 深圳市易尚展示股份有限公司 一种识别冗余数据的方法及装置
EP3353750B1 (de) * 2015-09-25 2021-09-01 Magic Leap, Inc. Verfahren und systeme zur erkennung und kombination von strukturmerkmalen bei der 3d-rekonstruktion
TWI578269B (zh) 2015-12-14 2017-04-11 財團法人工業技術研究院 三維座標縫合方法及應用其之三維座標資訊縫合裝置
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
GB201607639D0 (en) 2016-05-02 2016-06-15 Univ Leuven Kath Sensing method
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US11093896B2 (en) 2017-05-01 2021-08-17 Symbol Technologies, Llc Product status detection system
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
EP3619600A4 (de) 2017-05-01 2020-10-21 Symbol Technologies, LLC Verfahren und vorrichtung zur objektzustandserkennung
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
JP6907061B2 (ja) * 2017-07-21 2021-07-21 株式会社タダノ 測定対象物の上面推定方法、ガイド情報表示装置およびクレーン
JP6845106B2 (ja) * 2017-07-21 2021-03-17 株式会社タダノ 点群データのクラスタリング方法、ガイド情報表示装置およびクレーン
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
CN109697728B (zh) 2017-10-20 2023-04-25 阿里巴巴集团控股有限公司 数据处理方法、装置、系统和存储介质
CN111868786A (zh) * 2018-01-11 2020-10-30 云游公司 跨设备监控计算机视觉系统
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US10853946B2 (en) 2018-05-18 2020-12-01 Ebay Inc. Physical object boundary detection techniques and systems
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
CN109241978B (zh) * 2018-08-23 2021-09-07 中科光绘(上海)科技有限公司 地基三维激光点云中平面片的快速提取方法
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11436808B2 (en) * 2018-10-09 2022-09-06 Google Llc Selecting augmented reality objects for display based on contextual cues
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11281917B2 (en) * 2019-10-31 2022-03-22 Aptiv Technologies Limited Multi-domain neighborhood embedding and weighting of point cloud data
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
CN113021333A (zh) * 2019-12-25 2021-06-25 沈阳新松机器人自动化股份有限公司 一种物体的抓取方法、系统及终端设备
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003277240A1 (en) * 2002-10-15 2004-06-07 University Of Southern California Augmented virtual environments
US20080259073A1 (en) 2004-09-23 2008-10-23 Conversion Works, Inc. System and method for processing video images
WO2006084385A1 (en) 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
CA2676219C (en) * 2007-01-23 2017-10-24 Euclid Discoveries, Llc Computer method and apparatus for processing image data
US20090237546A1 (en) * 2008-03-24 2009-09-24 Sony Ericsson Mobile Communications Ab Mobile Device with Image Recognition Processing Capability
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
WO2010086866A1 (en) * 2009-02-02 2010-08-05 Eyesight Mobile Technologies Ltd. System and method for object recognition and tracking in a video stream
CN102334006A (zh) 2009-02-25 2012-01-25 立体光子国际有限公司 用于三维计量系统的强度和彩色显示
US8340400B2 (en) * 2009-05-06 2012-12-25 Honeywell International Inc. Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
US20110279445A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for presenting location-based content

Also Published As

Publication number Publication date
TW201229962A (en) 2012-07-16
US20120075342A1 (en) 2012-03-29
CN102959946A (zh) 2013-03-06
CN102959946B (zh) 2016-11-16
TWI483215B (zh) 2015-05-01
WO2012040709A2 (en) 2012-03-29
WO2012040709A3 (en) 2012-07-05
US8872851B2 (en) 2014-10-28

Similar Documents

Publication Publication Date Title
DE112011103221T5 (de) Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten
DE202014010843U1 (de) Ausrichten von bodenbasierten Bildern mit Luftbildern
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
CN109598794B (zh) 三维gis动态模型的构建方法
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
DE112016001830T5 (de) Das Entdecken von Unternehmen aus Bildern
DE102020214863A1 (de) Selbstüberwachtes verfahren und system zur tiefenschätzung
DE202009019126U1 (de) Dreidimensionale Beschriftungen für Strassenansichtsdaten
DE202010018498U1 (de) Abgleich eines ungefähr lokalisierten Anfragebildes mit einem Referenzbildsatz
DE102010001520A1 (de) Durch einen Flugzeugsensor unterstütztes Iriserfassungssystem und -Verfahren
DE202014010922U1 (de) Erzeugung von Tiefenkarten
EP2923333B1 (de) Verfahren zum automatischen erstellen von zwei- oder dreidimensionalen gebäudemodellen
DE102007045835A1 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE112016002022T5 (de) Managen von merkmalsdaten zur umgebungsabbildung auf einer elektronischen vorrichtung
EP3550516A1 (de) Umgebungsparameterabhängige auswahl eines datenmodells zur erkennung eines objekts einer realen umgebung
DE102019131700A1 (de) Verfahren und einrichtung für verbesserte ortsentscheidungen auf grundlage der umgebung
DE202016008004U1 (de) Automatische Verbindung von Bildern unter Verwendung visueller Eigenschaftsquerverweise auf zugehörige Anwendungen
EP3347878B1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit einem virtuellen bild und mobiles gerät
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
DE112020002734T5 (de) Systeme und verfahren zur automatisierten erkennung von änderungen der erstreckung von strukturen unter nutzung von bildern
DE202016006110U1 (de) Erweiterung des Sichtfeldes von Fotografie
DE112015003263T5 (de) Bildmodifikation
DE112010002677T5 (de) Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen
EP3539085B1 (de) 3d-referenzierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication