DE112011103221T5 - Extend image data based on related 3D point cloud data - Google Patents
Extend image data based on related 3D point cloud data Download PDFInfo
- Publication number
- DE112011103221T5 DE112011103221T5 DE112011103221T DE112011103221T DE112011103221T5 DE 112011103221 T5 DE112011103221 T5 DE 112011103221T5 DE 112011103221 T DE112011103221 T DE 112011103221T DE 112011103221 T DE112011103221 T DE 112011103221T DE 112011103221 T5 DE112011103221 T5 DE 112011103221T5
- Authority
- DE
- Germany
- Prior art keywords
- image data
- point cloud
- data
- area segment
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Ausführungsformen der Erfindung beschreiben das Verarbeiten von ersten Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten. Dieses erste Flächensegment ist mit einem in den ersten Bilddaten enthaltenen Objekt verknüpft. Zweite Bilddaten werden empfangen, wobei die zweiten Bilddaten das in den ersten Bilddaten erfasste Objekt enthalten. Ein zweites zu dem Objekt zugehöriges Flächensegment wird erzeugt, wobei das zweite Flächensegment mit dem Objekt, wie es in den zweiten Bilddaten erfasst wurde, geometrisch übereinstimmt. Dieses Flächensegment wird zumindest teilweise basierend auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment erzeugt.
Ausführungsformen der Erfindung können die zweiten Bilddaten mit Inhalten erweitern, die mit dem Objekt verknüpft sind. Dieses erweiterte Bild kann derart angezeigt werden, dass die Inhalte geometrisch übereinstimmend mit dem zweiten Flächensegment angezeigt werden.Embodiments of the invention describe processing first image data and 3D point cloud data to extract a first area segment from the 3D point cloud data. This first area segment is linked to an object contained in the first image data. Second image data is received, the second image data containing the object captured in the first image data. A second surface segment associated with the object is generated, wherein the second surface segment is geometrically coincident with the object as detected in the second image data. This area segment is generated based at least in part on the second image data, the first image data, and the first area segment.
Embodiments of the invention may extend the second image data with content associated with the object. This extended image may be displayed such that the contents are displayed geometrically coincident with the second area segment.
Description
GEBIETTERRITORY
Ausführungsformen der Erfindung betreffen im Allgemeinen mobile Computervorrichtungen und insbesondere das Erweitern von erfassten Bildern mit zugehörigen Inhalten.Embodiments of the invention generally relate to mobile computing devices, and more particularly to augmenting captured images with related content.
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Mobile Computervorrichtungen umfassen typischerweise Kameras, Standort- und Orientierungssensoren und immer leistungsstärkere Rechenressourcen. Mobile Computervorrichtungen können auch hohe Bandbreitenverbindungen herstellen, um Cloud-Computerinfrastrukturen und -Serviceanbieter zu nutzen.Mobile computing devices typically include cameras, location and orientation sensors, and increasingly powerful computing resources. Mobile computing devices can also make high bandwidth connections to use cloud computing infrastructures and service providers.
Die in mobilen Computervorrichtungen enthaltenen Displays können als Live-Bildsucher verwendet werden, um den Nutzern der Vorrichtung die Erfassung von Echtzeitbilddaten (z. B. Fotos, Videos) zu ermöglichen; allerdings sind die meisten Anwendungen nicht in der Lage, die für die mobile Computervorrichtung verfügbaren Rechenressourcen zu nutzen, um Benutzern zusätzliche Informationen zur Verfügung zu stellen, die für den Gegenstand in der angezeigten Live-Ansicht (d. h. dem Bildsucher) relevant sind. Die begrenzte Anzahl an Anwendungen, die versuchen, die Live-Ansicht zu erweitern sind auf die Darstellung grundlegender Informationen beschränkt, wie z. B. den Abstand zwischen dem Benutzer und einem bestimmten Standort, oder grundlegende Informationen über die Umgebung des Benutzers (z. B. die Geschäftsarten in der Live-Ansicht).The displays included in mobile computing devices may be used as a live viewfinder to allow users of the device to capture real-time image data (eg, photos, videos); however, most applications are unable to utilize the computational resources available to the mobile computing device to provide users with additional information relevant to the item in the displayed live view (i.e., the viewfinder). The limited number of applications attempting to expand the live view are limited to presenting basic information, such as: For example, the distance between the user and a specific location, or basic information about the user's environment (for example, the types of transactions in live view).
KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
Die folgende Beschreibung umfasst die Erörterung von Figuren, in denen Illustrationen für Beispiele von Implementierungen der Ausführungsformen der Erfindung angegeben sind. Die Zeichnungen sollten als Beispiel und nicht als Einschränkung verstanden werden. Wie hier verwendet, sollen Verweise auf eine oder mehrere ”Ausführungsformen” als Beschreibung bestimmter Merkmale, Strukturen oder Eigenschaften, die in mindestens einer Implementierung der Erfindung enthalten sind, verstanden werden. Daher beschreiben Satzteile, wie z. B. ”in einer Ausführungsform” oder ”in einer alternativen Ausführungsform”, die in diesem Text enthalten sind, verschiedene Ausführungsformen und Implementierungen der Erfindung und beziehen sich nicht unbedingt alle auf dieselbe Ausführungsform. Allerdings schließen sie sich auch nicht unbedingt gegenseitig aus.The following description includes the discussion of figures in which illustrations are given for examples of implementations of embodiments of the invention. The drawings should be taken as an example and not as a limitation. As used herein, references to one or more "embodiments" are to be understood as describing particular features, structures, or characteristics included in at least one implementation of the invention. Therefore, phrases such. "In an embodiment" or "in an alternative embodiment" contained in this text, various embodiments and implementations of the invention and not necessarily all refer to the same embodiment. However, they are not necessarily mutually exclusive.
Beschreibungen bestimmter Details und Implementierungen folgen, einschließlich einer Beschreibung der Figuren, die einige oder alle der im Folgenden beschriebenen Ausführungsformen zeigen, sowie eine Erörterung weiterer möglicher Ausführungsformen oder Implementierungen der hier dargestellten vorliegenden Erfindung. Eine Übersicht der Ausführungsformen der Erfindung wird im Folgenden gegeben, gefolgt von einer detaillierteren Beschreibung mit Bezugnahme auf die Zeichnungen.Descriptions of particular details and implementations will follow, including a description of the figures, which show some or all of the embodiments described below, as well as a discussion of other possible embodiments or implementations of the present invention presented herein. An overview of the embodiments of the invention will be given below, followed by a more detailed description with reference to the drawings.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Ausführungsformen der Erfindung beziehen sich auf Systeme, Einrichtungen und Verfahren zum Bereitstellen von Bilddaten, die durch zugehörige Daten erweitert werden, um auf einer mobilen Computervorrichtung dargestellt zu werden. Ausführungsformen der Erfindung beschreiben das Verarbeiten von ersten Bilddaten und 3D-Punktwolkendaten zum Extrahieren eines ersten Flächensegments aus den 3D-Punktwolkendaten. Dieses erste Flächensegment ist mit einem in den ersten Bilddaten enthaltenen Objekt verknüpft. Zweite Bilddaten werden empfangen (z. B. über einen in einer mobilen Computervorrichtung enthaltenen Bildsensor erfasst), wobei die zweiten Bilddaten das in den ersten Bilddaten erfasste Objekt enthalten. Ein zweites zu dem Objekt zugehöriges Flächensegment wird erzeugt, wobei das zweite Flächensegment mit dem Objekt, wie es in den zweiten Bilddaten erfasst wurde, geometrisch übereinstimmt. Wie im Folgenden beschrieben wird dieses Flächensegment zumindest teilweise basierend auf den zweiten Bilddaten, den ersten Bilddaten und dem ersten Flächensegment erzeugt.Embodiments of the invention relate to systems, devices, and methods for providing image data that is augmented by associated data to be displayed on a mobile computing device. Embodiments of the invention describe processing first image data and 3D point cloud data to extract a first area segment from the 3D point cloud data. This first area segment is linked to an object contained in the first image data. Second image data is received (eg, detected via an image sensor included in a mobile computing device), the second image data containing the detected in the first image data object. A second surface segment associated with the object is generated, wherein the second surface segment is geometrically coincident with the object as detected in the second image data. As described below, this area segment is generated at least partially based on the second image data, the first image data, and the first area segment.
Ausführungsformen der Erfindung können die zweiten Bilddaten weiterhin durch Inhalte erweitern, die mit dem Objekt (z. B. Text, Bildern oder Videos oder einer 3D-Struktur) verknüpft sind. Diese erweiterten Inhalte können angezeigt werden, z. B. auf einem in der mobilen Computervorrichtung enthaltenen Display, wobei die Inhalte geometrisch übereinstimmend mit dem zweiten Flächensegment dargestellt werden.Embodiments of the invention may further extend the second image data by content associated with the object (eg, text, images, or videos or a 3D structure). These advanced content can be viewed, for example: On a display included in the mobile computing device, wherein the contents are displayed geometrically coincident with the second area segment.
In diesem Beispiel umfasst das Display
In dieser Ausführungsform wird die Echtzeitansicht
Die Flächensegmente
In dieser Ausführungsform umfassen die Flächensegmente
Bilddaten (hier alternativ auch als ”vorab gespeicherte” Bilddaten bezeichnet, um die Daten von den Bilddaten zu unterscheiden, die durch die mobile Computervorrichtung erfasst werden) und 3D-Punktwolkendaten, die den Bilddaten entsprechen, werden verarbeitet, um mindestens ein Flächensegment
In einer Ausführungsform sind die vorab gespeicherten Bilddaten ein Bild von mindestens einem Objekt. Das extrahierte Flächensegment wird mit dem Objekt verknüpft. Beispielsweise können die vorab gespeicherten Bilddaten, wie zuvor beschrieben, ein Bild eines Gebäudes enthalten, wobei das extrahierte Flächensegment eine Ebene des Gebäudes sein wird.In one embodiment, the pre-stored image data is an image of at least one object. The extracted area segment is linked to the object. For example, as previously described, the pre-stored image data may include an image of a building, the extracted area segment will be a level of the building.
Bilddaten des Objekts werden über einen Bildsensor erfasst, der in einer mobilen Computervorrichtung
Das zweite Flächensegment wird mit den erfassten Bilddaten integriert (hier alternativ als registriert bezeichnet)
Die erfassten Bilddaten werden mit zusätzlichen Inhalten im zweiten Flächensegment erweitert,
In einigen Ausführungsformen werden 3D-Punktwolkendaten
In einigen Ausführungsformen entstehen 3D-Punktwolkendaten
Um die Ebenen aus den 3D-Punktwolkendaten
Nref Pixel von einem Bild werden zufällig ausgewählt
In einer örtlichen Umgebung, d. h. ein W × W-Fenster um das Referenz-Pixel, werden zwei weitere Pixel zufällig ausgewählt, sodass die drei Pixel nicht kollinear sind
Für jeden 3D-Punkt, (hier als Punkt M in IR3 bezeichnet) wird festgestellt, ob er auf der Ebene (Pref) liegt und sein Projektionsfehler auf der Ebene (Pref: E = [nref.(M-Mref)]2) wird berechnet, wobei Mref der 3D-Punkt ist, der dem Referenzpixel entspricht,
Der standardisierte Wert der Ebene (Pref) wird dann als normalisierte Zahl an ”zugehörigen” 3D-Punkten berechnet: scoreref = |{M in (Pref)}|/N, wobei N die Gesamtzahl der Punkte in den 3D-Punktwolkendaten ist
Der größte standardisierte Wert in den von Nref erhaltenen standardisierten Werten wird ausgewählt
Sobald alle Ebenen extrahiert wurden, und wobei davon ausgegangen wird, dass mehr als eine Ebene extrahiert wurde, können Ausführungsformen der Erfindung die extrahierten Ebenen weiterhin verfeinern.
Zu einem vorab gespeicherten Bild zugehörige Daten können zum Bestimmen von Kriterien zum Filtern fehlerhafter Ebenen verwendet werden
Ebenen, die diese Filterkriterien nicht erfüllen, werden eliminiert
Jede der nicht eliminierten Ebenen kann auch mit ähnlich verarbeiteten Ebenen verglichen werden, d. h. Ebenen mit ähnlichen Normalenvektoren und Fehlern, und nur die extrahierte Ebene mit der größten Anzahl an Punkten wird beibehalten,
Wenn keine verbleibenden Ebenen mehr zum Verarbeiten übrig sind,
Demnach kann das Ergebnis des Beispielprozesses, der durch
In dieser Ausführungsform umfassen die 3D-Punktwolkendaten
Im Fall von Gebäuden kann das gewünschte Endergebnis ein Satz angrenzender Rechtecke der Gebäudewände sein. Wenn die 3D-Punktwolkendaten und das vorab gespeicherte Bild zu einer urbanen Gegend gehören, kann angenommen werden, dass die meisten 3D-Punkte, die zu vertikalen Ebenen gehören, den Wänden des Gebäudes entsprechen. Daher ist das Ziel, sich an die vertikalen Flächensegmente durch Rechtecke anzunähern, gerechtfertigt.In the case of buildings, the desired end result may be a set of adjacent rectangles of the building walls. If the 3D point cloud data and the pre-stored image belong to an urban area, it can be assumed that most of the 3D points associated with vertical planes correspond to the walls of the building. Therefore, the goal of approximating the vertical surface segments by rectangles is justified.
In einer Ausführungsform der Erfindung werden die Informationen sowohl im Bild als auch in den 3D-Punktwolkendaten wirksam zum Cluster von Ebenen durch Verwenden von Bereichswachstum in der 3D-Punktwolke eingesetzt. Der Ähnlichkeitsabstand zwischen zwei 3D-Punkten ist der Abstand in Pixeln zwischen den entsprechenden Pixeln. Das Verarbeiten von Operationen kann sich über jeder Ebene wiederholen, eine Anzahl von n Kernen wird gewählt und Flächensegmente entstehen um sie herum. In one embodiment of the invention, the information in both the image and the 3D point cloud data is effectively employed to cluster clusters using area growth in the 3D point cloud. The similarity distance between two 3D points is the distance in pixels between the corresponding pixels. The processing of operations can be repeated over each level, a number of n cores are chosen, and surface segments are created around them.
In einigen Ausführungsformen können mehrere 2D-Bilder eines Objekts oder einer Szene von verschiedenen Blickwinkeln gemeinsam mit und entsprechend der 3D-Punktwolkendatensätzen aus unterschiedlichen Blickwinkeln vorab gespeichert werden. Diese Punktwolkendatensätze können überlappen. In diesen Ausführungsformen können alle Punktwolkendaten zusammengefasst werden, um die Genauigkeit der extrahierten Flächensegmente zu verbessern. Zum Identifizieren der überlappenden Bereiche können die Sätze der Punktwolkendaten auf eine örtliche Umgebung beschränkt werden, und zugehörige Punktwolkeninformationen können zusammengefasst werden.In some embodiments, multiple 2D images of an object or scene may be pre-stored from different viewpoints along with and corresponding to the 3D point cloud datasets from different viewpoints. These point cloud records may overlap. In these embodiments, all point cloud data can be aggregated to improve the accuracy of the extracted surface segments. To identify the overlapping regions, the sets of point cloud data may be constrained to a local environment, and associated point cloud information may be aggregated.
Es versteht sich, dass die verschiedenen Aufgaben zum Extrahieren von Ebenen, Kombinieren von Punktwolkendaten und zum Entfernen von Rauschen in unterschiedlichen Reihenfolgen in verschiedenen Prozessen ausgeführt werden können. In einer Ausführungsform wird jeder einzelne Satz mit Punktwolkendaten als ein Satz mit Rauschen in den Messungen (die Quellen für das Rauschen können die Messunsicherheit, ihre Ausrichtung, Sensorrauschen usw. umfassen) der tatsächlichen 3D-Punkte modelliert. Danach können eine Schätzung der Statistiken für das Rauschen und die ursprünglichen 3D-Punkte in den überlappenden Bereichen erlangt werden. Diese Statistiken für Rauschen können für den Erhalt besserer Schätzungen für die 3D-Punkte für alle Sätze mit Punktwolkendaten verwendet werden, um die Ebenen zu extrahieren. Es versteht sich, dass die 3D-Punkte in dem Überlappungsbereich die genausten Schätzungen aufweisen, und daher kann diesen Punkten eine Priorität beim Schätzen der Ebenen gegeben werden, zu denen sie gehören (beispielsweise können gewichtete kleinste Quadrate für eine Schätzung der Ebenenparameter verwendet werden, wobei diesen Punkten mehr Gewichtungen zugewiesen werden).It is understood that the various tasks of extracting planes, combining point cloud data, and removing noise in different orders can be performed in different processes. In one embodiment, each individual set of point cloud data is modeled as a set of noise in the measurements (sources of noise may include measurement uncertainty, their orientation, sensor noise, etc.) of the actual 3D points. Thereafter, an estimate of the statistics for the noise and the original 3D points in the overlapping areas can be obtained. These noise statistics may be used to obtain better estimates of the 3D points for all sets of point cloud data to extract the levels. It will be understood that the 3D points in the overlap region have the most accurate estimates, and therefore, these points may be given a priority in estimating the planes to which they belong (e.g., weighted least squares may be used for an estimate of the plane parameters) assigning more weight to these points).
In einer anderen Ausführungsform wird das Extrahieren von Ebenen für jeden einzelnen Satz mit 3D-Punktwolkendaten separat ausgeführt. Überlappende Ebenen können basierend auf ihren ähnlichen Normalenvektoren und deren lokale Nähe ermittelt werden. Für jeden Satz überlappender Ebenen werden alle zugehörigen 3D-Punktwolkendaten erfasst, um eine neue (d. h. genauere) Schätzung der Ebene basierend auf dieser größeren Sammlung Punkte zu erstellen.In another embodiment, extracting planes for each individual set of 3D point cloud data is performed separately. Overlapping levels can be determined based on their similar normal vectors and their local proximity. For each set of overlapping levels, all related 3D point cloud data is collected to create a new (i.e., more accurate) estimate of the level based on that larger collection of points.
In einer Ausführungsform werden zugehörige Informationen zur Konfidenz bzw. Zuverlässigkeit, die mit den 3D-Punktwolkendaten verknüpft sind, erhalten. Diese zusätzlichen Informationen können gemeinsam mit den 3D-Punktwolkendaten wirksam eingesetzt werden, um die Zuverlässigkeit für 3D-Punktmessungen abzuleiten.In one embodiment, associated confidence or reliability information associated with the 3D point cloud data is obtained. This additional information can be leveraged along with the 3D point cloud data to derive reliability for 3D point measurements.
Beispielsweise kann der oben beschriebene Algorithmus zum Extrahieren von Ebenen angepasst werden, indem die 3D-Punkte mit höherer Wahrscheinlichkeit mehr zu der Schätzung der Ebenen beitragen dürfen. Das Abtastverfahren in RANSAC kann beeinflusst sein, um mehr der von den zuverlässigeren 3D-Punkten abzutasten. Darüber hinaus können eher gewichtete kleinste Quadrate als nur kleinste Quadrate für die Schätzung der Ebenenparameter verwendet werden. Die Gewichtungen wären proportional oder eine steigende Funktion der Zuverlässigkeitswerte der 3D-Punkte.For example, the above-described algorithm for extracting planes may be adjusted by making the 3D points more likely to contribute more to the estimation of the planes. The scanning process in RANSAC may be affected to sample more of the more reliable 3D points. In addition, weighted least squares rather than least squares may be used for estimating the plane parameters. The weights would be proportional or an increasing function of the reliability values of the 3D points.
In einer Ausführungsform können Farbinformationen verwendet werden, um Ebenen genauer aus 3D-Punktwolkendaten zu extrahieren. Beispielsweise können sowohl Farbinformationen als auch Pixelabstand kombiniert werden, um den Ähnlichkeitsabstand des oben beschriebenen wachsenden Bereichswachstumsprozesses zu bilden. In dieser Ausführungsform tendieren 3D-Punkte, die sich in derselben Ebene befinden und einen kleinen Pixelabstand sowie ähnliche Farben haben (d. h. sie entsprechen den Pixeln in derselben Farbe in den vorab gespeicherten Bildern) dazu, demselben Flächensegment zugewiesen zu werden.In one embodiment, color information may be used to more accurately extract planes from 3D point cloud data. For example, both color information and pixel pitch may be combined to form the similarity spacing of the growing area growth process described above. In this embodiment, 3D points that are in the same plane and have a small pixel pitch and similar colors (i.e., they correspond to the pixels in the same color in the pre-stored images) tend to be assigned to the same area segment.
Es versteht sich, dass die Flächensegmente, die aus den 3D-Punktwolkendaten extrahiert werden, ein grobes 3D-Modell der vorab gespeicherten Bilddaten bilden. Diese Daten können zum Extrahieren eines Flächensegments aus den erfassten Bilddaten verwendet werden. Daher können die Flächensegmente im 3D-Modell mit den erfassten Bilddaten und den vorab gespeicherten Bilddaten verarbeitet (d. h. integriert) werden, wodurch es möglich wird, erfasste Bilddaten mit dem groben 3D-Modell zu registrieren. It is understood that the area segments extracted from the 3D point cloud data form a coarse 3D model of the pre-stored image data. This data can be used to extract a patch of the captured image data. Therefore, the area segments in the 3D model can be processed (ie, integrated) with the acquired image data and the pre-stored image data, thereby making it possible to register acquired image data with the coarse 3D model.
Durch die Registrierung des groben 3D-Modells wird es mehreren Anwendungen ermöglicht, Daten innerhalb der jeweiligen Flächensegmente (d. h. statische Bilder und Video) zu projizieren. Mit anderen Worten: Der Benutzer kann ein Bild mit der mobilen Computervorrichtung aufnehmen und es in der richtigen Perspektive im Modell entweder auf einer mobilen Computervorrichtung oder auf dem Desktop registrieren. Ähnlich wie bei Videobilddaten kann die registrierte Live-Ansicht in Echtzeit um weitere Informationen, wie z. B. Text, Bilder, Videos oder eine 3D-Struktur erweitert werden, die in der richtigen Perspektive hinzugefügt werden (wie z. B. in
In einer Ausführungsform verwendet eine mobile Computervorrichtung Systemkomponenten und Anwendungen (z. B. Global Positioning System(GPS)-Sensoren, Funk- oder WiFi-Netzwerkverbindungen, Orientierungssensoren), um den Standort der Vorrichtung und den Blickwinkel ihres Bildsensors einzugrenzen. Auf Seiten des groben 3D-Modells können Standort- und Orientierungsinformationen gemeinsam mit zugehörigen vorab gespeicherten Bilddaten (d. h. Referenzmodelle) des ungefähren Standorts, dessen Ansichten nahe der ungefähren Ansicht sind, verwendet werden, um visuelle Merkmale aus diesen Bildern zu extrahieren. Somit erzeugt die obige Verarbeitung Flächensegmente mit entsprechenden visuellen Merkmalen, d. h. die Referenzmodelle, die von den Registrierungsprozessen verwendet werden sollen.In one embodiment, a mobile computing device uses system components and applications (eg, Global Positioning System (GPS) sensors, radio or WiFi network connections, orientation sensors) to narrow the location of the device and the viewing angle of its image sensor. On the coarse 3D model side, location and orientation information, along with associated pre-stored image data (i.e., reference models) of the approximate location whose views are near the approximate view, can be used to extract visual features from those images. Thus, the above processing generates area segments with corresponding visual features, i. H. the reference models to be used by the registration processes.
In einer Ausführungsform werden die visuellen Merkmale aus dem Bild oder dem Videoframe auf der mobilen Vorrichtung extrahiert und mit den visuellen Merkmalen in den Referenzmodellen (d. h. vorab gespeicherten Bildern) abgeglichen.
Mehrere Homografien
Daher können das Objekt
Das Modul für das Extrahieren von Ebenen
In dieser Ausführungsform werden die Module
Verschiedene Komponenten, die im vorliegenden Text als Prozesse, Server oder Werkzeuge beschrieben sind, können Mittel zum Ausführen der beschriebenen Funktionen sein. Jede im vorliegenden Text beschriebene Komponente umfasst Software oder Hardware oder eine Kombination davon. Jede einzelne und alle Komponenten können als Softwaremodule, Hardwaremodule, Spezialhardware (z. B. anwendungsspezifische Hardware, ASICs, DSPs usw.) implementiert werden, eingebettete Controller, festverdrahtete Schaltkreise, Hardwarelogik usw. Softwareinhalte (z. B. Daten, Anweisungen, Konfiguration) können über einen Fertigungsartikel bereitgestellt werden, umfassend ein nicht transitorisches, greifbares computer- oder maschinenlesbares Speichermedium, das Inhalte bereitstellt, die ausführbare Anweisungen darstellen. Die Inhalte können dazu führen, dass ein Computer verschiedene im vorliegenden Text beschriebene Funktionen/Operationen ausführt. Ein computerlesbares Speichermedium umfasst Mechanismen, die Informationen in einer Form bereitstellen (d. h. speichern und/oder übertragen), die von einem Computer (z. B. Computervorrichtung, elektronisches System usw.) abgerufen werden können, wie z. B. aufzeichnungsfähige/nicht-aufzeichnungsfähige Medien (z. B. Read Only Memory (ROM), Random Access Memory (RAM), Magnetplattenspeichermedien, optische Speichermedien, Flashspeichervorrichtung usw.). Die Inhalte können direkt ausführbar (”Objekt” oder ”ausführbare” Form), Quellcode oder Differenzcode (”Delta”- oder ”Patch”-Code) sein. Ein computerlesbares Speichermedium kann auch Speicher oder eine Datenbank umfassen, aus dem bzw. der Inhalte heruntergeladen werden können. Ein computerlesbares Medium kann auch eine Vorrichtung oder ein Produkt umfassen, auf der bzw. dem zum Zeitpunkt des Verkaufs oder der Lieferung Inhalte gespeichert sind. Daher kann die Auslieferung einer Vorrichtung mit gespeicherten Inhalten oder das Angebot von Inhalten zum Download über ein Kommunikationsmedium als Bereitstellen eines Fertigungsartikels mit derartigen im vorliegenden Text beschriebenen Inhalten verstanden werden.Various components, which are described herein as processes, servers or tools, may be means for performing the described functions. Each component described herein includes software or hardware or a combination thereof. Each and every component may be implemented as software modules, hardware modules, specialized hardware (eg, application specific hardware, ASICs, DSPs, etc.), embedded controllers, hardwired circuitry, hardware logic, etc. Software content (eg, data, instructions, configuration) may be provided via an article of manufacture comprising a non-transitory, tangible computer or machine-readable storage medium providing content representing executable instructions. The contents may cause a computer to perform various functions / operations described herein. A computer-readable storage medium includes mechanisms that provide information (i.e., store and / or transfer) information in a form that can be retrieved from a computer (eg, computing device, electronic system, etc.), such as a computer. B. recordable / non-recordable media (e.g., read only memory (ROM), random access memory (RAM), magnetic disk storage media, optical storage media, flash memory device, etc.). The contents may be directly executable ("object" or "executable" form), source code or difference code ("delta" or "patch" code). A computer readable storage medium may also include memory or a database from which content may be downloaded. A computer-readable medium may also include a device or product on which content is stored at the time of sale or delivery. Therefore, the delivery of a stored content device or the offering of content for download via a communication medium may be understood as providing an article of manufacture having such content as described herein.
Claims (20)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/890,251 US8872851B2 (en) | 2010-09-24 | 2010-09-24 | Augmenting image data based on related 3D point cloud data |
US12/890,251 | 2010-09-24 | ||
PCT/US2011/053271 WO2012040709A2 (en) | 2010-09-24 | 2011-09-26 | Augmenting image data based on related 3d point cloud data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112011103221T5 true DE112011103221T5 (en) | 2013-09-19 |
Family
ID=45870201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112011103221T Pending DE112011103221T5 (en) | 2010-09-24 | 2011-09-26 | Extend image data based on related 3D point cloud data |
Country Status (5)
Country | Link |
---|---|
US (1) | US8872851B2 (en) |
CN (1) | CN102959946B (en) |
DE (1) | DE112011103221T5 (en) |
TW (1) | TWI483215B (en) |
WO (1) | WO2012040709A2 (en) |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019812B2 (en) | 2011-03-04 | 2018-07-10 | General Electric Company | Graphic overlay for measuring dimensions of features using a video inspection device |
US10586341B2 (en) | 2011-03-04 | 2020-03-10 | General Electric Company | Method and device for measuring features on or near an object |
US10157495B2 (en) * | 2011-03-04 | 2018-12-18 | General Electric Company | Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
WO2012141235A1 (en) * | 2011-04-13 | 2012-10-18 | 株式会社トプコン | Three-dimensional point group position data processing device, three-dimensional point group position data processing system, three-dimensional point group position data processing method and program |
KR101907081B1 (en) * | 2011-08-22 | 2018-10-11 | 삼성전자주식회사 | Method for separating object in three dimension point clouds |
EP2602588A1 (en) * | 2011-12-06 | 2013-06-12 | Hexagon Technology Center GmbH | Position and Orientation Determination in 6-DOF |
US9235920B2 (en) * | 2011-12-22 | 2016-01-12 | Telefonaktiebolaget L M Ericsson (Publ) | Method and processor for 3D scene representation |
WO2014160198A1 (en) * | 2013-03-13 | 2014-10-02 | Build-A-Bear Workshop, Inc. | Systems and methods for computer recognition of plush toys |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
CN104616278B (en) * | 2013-11-05 | 2020-03-17 | 北京三星通信技术研究有限公司 | Three-dimensional point cloud interest point detection method and system |
US9547901B2 (en) * | 2013-11-05 | 2017-01-17 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting point of interest (POI) in three-dimensional (3D) point clouds |
US9704055B2 (en) * | 2013-11-07 | 2017-07-11 | Autodesk, Inc. | Occlusion render mechanism for point clouds |
US9633483B1 (en) * | 2014-03-27 | 2017-04-25 | Hrl Laboratories, Llc | System for filtering, segmenting and recognizing objects in unconstrained environments |
US9723109B2 (en) | 2014-05-28 | 2017-08-01 | Alexander Hertel | Platform for constructing and consuming realm and object feature clouds |
US9600892B2 (en) * | 2014-11-06 | 2017-03-21 | Symbol Technologies, Llc | Non-parametric method of and system for estimating dimensions of objects of arbitrary shape |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
CN104715120B (en) * | 2015-03-30 | 2019-08-23 | 英华达(上海)科技有限公司 | The extending method of 3D model |
US10033941B2 (en) * | 2015-05-11 | 2018-07-24 | Google Llc | Privacy filtering of area description file prior to upload |
CN105261061B (en) * | 2015-09-07 | 2018-10-26 | 深圳市易尚展示股份有限公司 | A kind of method and device of identification redundant data |
JP6944441B2 (en) | 2015-09-25 | 2021-10-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Methods and systems for detecting and combining structural features in 3D reconstruction |
TWI578269B (en) | 2015-12-14 | 2017-04-11 | 財團法人工業技術研究院 | Method for suturing 3d coordinate information and the device using the same |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10145955B2 (en) | 2016-02-04 | 2018-12-04 | Symbol Technologies, Llc | Methods and systems for processing point-cloud data with a line scanner |
US10721451B2 (en) | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
US9805240B1 (en) | 2016-04-18 | 2017-10-31 | Symbol Technologies, Llc | Barcode scanning and dimensioning |
GB201607639D0 (en) | 2016-05-02 | 2016-06-15 | Univ Leuven Kath | Sensing method |
US10776661B2 (en) | 2016-08-19 | 2020-09-15 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting and dimensioning objects |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US10451405B2 (en) | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10354411B2 (en) | 2016-12-20 | 2019-07-16 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting objects |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US11978011B2 (en) | 2017-05-01 | 2024-05-07 | Symbol Technologies, Llc | Method and apparatus for object status detection |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US11600084B2 (en) | 2017-05-05 | 2023-03-07 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
JP6907061B2 (en) * | 2017-07-21 | 2021-07-21 | 株式会社タダノ | Top surface estimation method for measurement object, guide information display device and crane |
JP6845106B2 (en) * | 2017-07-21 | 2021-03-17 | 株式会社タダノ | Point cloud data clustering method, guide information display device and crane |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
CN109697728B (en) | 2017-10-20 | 2023-04-25 | 阿里巴巴集团控股有限公司 | Data processing method, device, system and storage medium |
WO2019140295A1 (en) * | 2018-01-11 | 2019-07-18 | Youar Inc. | Cross-device supervisory computer vision system |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US10853946B2 (en) | 2018-05-18 | 2020-12-01 | Ebay Inc. | Physical object boundary detection techniques and systems |
US10679367B2 (en) * | 2018-08-13 | 2020-06-09 | Hand Held Products, Inc. | Methods, systems, and apparatuses for computing dimensions of an object using angular estimates |
CN109241978B (en) * | 2018-08-23 | 2021-09-07 | 中科光绘(上海)科技有限公司 | Method for rapidly extracting plane piece in foundation three-dimensional laser point cloud |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
EP3864493A1 (en) * | 2018-10-09 | 2021-08-18 | Google LLC | Selecting augmented reality objects for display based on contextual cues |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11281917B2 (en) * | 2019-10-31 | 2022-03-22 | Aptiv Technologies Limited | Multi-domain neighborhood embedding and weighting of point cloud data |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
CN113021333A (en) * | 2019-12-25 | 2021-06-25 | 沈阳新松机器人自动化股份有限公司 | Object grabbing method and system and terminal equipment |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
EP4386678A1 (en) * | 2022-12-14 | 2024-06-19 | Koninklijke Philips N.V. | Novel view generation using point clouds |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1567988A1 (en) * | 2002-10-15 | 2005-08-31 | University Of Southern California | Augmented virtual environments |
US20080259073A1 (en) | 2004-09-23 | 2008-10-23 | Conversion Works, Inc. | System and method for processing video images |
WO2006084385A1 (en) | 2005-02-11 | 2006-08-17 | Macdonald Dettwiler & Associates Inc. | 3d imaging system |
CA2676219C (en) * | 2007-01-23 | 2017-10-24 | Euclid Discoveries, Llc | Computer method and apparatus for processing image data |
US20090237546A1 (en) * | 2008-03-24 | 2009-09-24 | Sony Ericsson Mobile Communications Ab | Mobile Device with Image Recognition Processing Capability |
TW201005673A (en) * | 2008-07-18 | 2010-02-01 | Ind Tech Res Inst | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system |
WO2010086866A1 (en) * | 2009-02-02 | 2010-08-05 | Eyesight Mobile Technologies Ltd. | System and method for object recognition and tracking in a video stream |
EP2401575B1 (en) | 2009-02-25 | 2019-12-25 | Dimensional Photonics International, Inc. | Method and apparatus for generating a display of a three-dimensional surface |
US8340400B2 (en) * | 2009-05-06 | 2012-12-25 | Honeywell International Inc. | Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features |
US20110279445A1 (en) * | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for presenting location-based content |
-
2010
- 2010-09-24 US US12/890,251 patent/US8872851B2/en active Active
-
2011
- 2011-09-16 TW TW100133479A patent/TWI483215B/en not_active IP Right Cessation
- 2011-09-26 WO PCT/US2011/053271 patent/WO2012040709A2/en active Application Filing
- 2011-09-26 DE DE112011103221T patent/DE112011103221T5/en active Pending
- 2011-09-26 CN CN201180002820.9A patent/CN102959946B/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20120075342A1 (en) | 2012-03-29 |
US8872851B2 (en) | 2014-10-28 |
WO2012040709A2 (en) | 2012-03-29 |
WO2012040709A3 (en) | 2012-07-05 |
TW201229962A (en) | 2012-07-16 |
TWI483215B (en) | 2015-05-01 |
CN102959946B (en) | 2016-11-16 |
CN102959946A (en) | 2013-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112011103221T5 (en) | Extend image data based on related 3D point cloud data | |
US9454796B2 (en) | Aligning ground based images and aerial imagery | |
DE112015005191T5 (en) | Aligning panoramic and aerial photography | |
DE102018121019A1 (en) | EXPANDING REAL SENSOR RECORDS WITH SIMULATED SENSOR DATA | |
DE102007045835B4 (en) | Method and device for displaying a virtual object in a real environment | |
CN109598794B (en) | Construction method of three-dimensional GIS dynamic model | |
DE102020214863A1 (en) | SELF-MONITORED PROCEDURE AND SYSTEM FOR DEPTH ESTIMATION | |
DE112011103690T5 (en) | Detection and tracking of moving objects | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
DE112016001830T5 (en) | Discovering companies from images | |
DE202009019126U1 (en) | Three-dimensional labels for road view data | |
DE202010018498U1 (en) | Matching an approximately localized request image with a reference image sentence | |
EP2923333B1 (en) | Method for the automatic creation of two- or three-dimensional building models | |
DE102010001520A1 (en) | Iris detection system and method supported by an aircraft sensor | |
DE202015009198U1 (en) | Selection of temporally distributed panoramic images for display | |
DE202014010927U1 (en) | Reference point identification from point clouds created from geographic image data | |
DE102007045834A1 (en) | Method and device for displaying a virtual object in a real environment | |
DE112016002022T5 (en) | MANAGING FEATURE DATA FOR ENVIRONMENTAL IMAGING ON AN ELECTRONIC DEVICE | |
DE202016008004U1 (en) | Automatically associate images using visual property references to related applications | |
EP3347878B1 (en) | Method and apparatus for superimposing a virtual image onto an image of a real scene, and mobile device | |
DE112015003263T5 (en) | image modification | |
DE112010002677T5 (en) | METHOD AND DEVICE FOR DETERMINING FORM CONFORMITY IN THREE DIMENSIONS | |
EP3539085B1 (en) | 3d localization | |
DE102004026782A1 (en) | Method and apparatus for computer-aided motion estimation in at least two temporally successive digital images, computer-readable storage medium and computer program element | |
DE102017118993A1 (en) | Method for identifying a ship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |