DE112013003214T5 - Verfahren zum Registrieren von Daten - Google Patents

Verfahren zum Registrieren von Daten Download PDF

Info

Publication number
DE112013003214T5
DE112013003214T5 DE112013003214.7T DE112013003214T DE112013003214T5 DE 112013003214 T5 DE112013003214 T5 DE 112013003214T5 DE 112013003214 T DE112013003214 T DE 112013003214T DE 112013003214 T5 DE112013003214 T5 DE 112013003214T5
Authority
DE
Germany
Prior art keywords
point
primitives
points
level
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112013003214.7T
Other languages
English (en)
Inventor
Srikumar Ramalingam
Yong-Dian Jian
Chen Feng
Yuichi Taguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112013003214T5 publication Critical patent/DE112013003214T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

Dreidimensionale Daten werden registriert durch Auswählen eines ersten Satzes von Grundelementen aus den Daten in einem ersten Koordinatensystem, wobei der erste Satz von Grundelementen zumindest eine Ebene, zumindest einen Punkt und ein drittes Grundelement, das entweder ein Punkt oder eine Ebene ist, enthält, und Auswählen eines zweiten Satzes von Grundelementen aus den Daten in einem zweiten Koordinatensystem, wobei der zweite Satz von Grundelementen zumindest eine Ebene, zumindest einen Punkt und ein drittes Grundelement entsprechend dem dritten Grundelement in dem ersten Satz von Grundelementen enthält. Dann werden die Ebenen miteinander registriert, wie es die Punkte sind, um registrierte Grundelemente zu erhalten.

Description

  • [Technisches Gebiet]
  • Diese Erfindung bezieht sich allgemein auf die Registrierung dreidimensionaler (3D) Daten und insbesondere auf das Registrieren von 3D-Punkten und 3D-Ebenen miteinander für Echtzeit-Rekonstruktionsanwendungen.
  • [Stand der Technik]
  • 3D-Rekonstruktion
  • Interaktive und Echtzeit-3D-Rekonstruktionen einer Szene werden bei einer Anzahl von Anwendungen verwendet, beispielsweise Robotertechnik, vergrößerte Realität, medizinische Abbildung und Computerabbildung. 3D-Rekonstruktionen geringer und hoher Dichte in Echtzeit können passive Sensoren wie Kameras verwenden. Jedoch haben passive Sensoren Schwierigkeiten, texturlose Bereiche zu rekonstruieren.
  • Zum Rekonstruieren texturloser Bereiche können aktive 3D-Sensoren verwendet werden. Beispielsweise verwendet der Kinect-Sensor für die Microsoft Xbox ein IR-Muster zum Erwerben von 3D-Daten als eine Tiefenkarte in Echtzeit von dem Betrachtungspunkt des Sensors aus.
  • Andere Probleme beziehen sich auf die Verarbeitungszeit, die Speicheranforderungen und die Genauigkeit. Aufgrund des Gesichtsfelds und der Auflösung erzeugen 3D-Sensoren üblicherweise eine Teilrekonstruktion einer Szene. Es ist erwünscht, ein genaues und schnelles Registrierungsverfahren vorzusehen, das aufeinanderfolgende Tiefenteilkarten und ein Modell der Szene kombinieren kann. Trägheitssensoren haben die Neigung, zu driften. Daher müssen die Merkmale in einem RGB(Textur)-Bild oder einer Tiefenkarte für eine genaue Registrierung verlässlich sein. Zusätzlich sind Tiefenkarten gewöhnlich störungsbehaftet ohne eine räumliche Randbedingung mit höherem Pegel. Weiterhin erfordert die Punktwolke einen sehr großen Speicher und ist schwierig zu komprimieren.
  • 3D-zu-3D-Registrierung
  • Lokal
  • Ausrichtung oder Registrierung von 3D-Daten ist ein fundamentales Problem bei Computerabbildungsanwendungen, das durch Anwendung mehrerer Verfahren gelöst werden kann. Die Registrierungsverfahren können lokal oder global sein. Die lokalen Verfahren sollten mit einer guten Initialisierung beginnen und zwei 3D-Punktwolken unter Verwendung relativ kleiner iterativer Bewegungen registrieren. Dies ist ähnlich einem nichtlinearen Minimierungsverfahren, das zu einer globalen Lösung mit einer guten anfänglichen Lösung konvergiert. Das üblichste lokale Verfahren ist ein iteratives Verfahren für den nächstliegenden Punkt (ICP), das iterativ entsprechende 3D-Punkte und die Bewegungen unter Verwendung einer Lösung in geschlossener Form bestimmt.
  • Global
  • Globale Verfahren berücksichtigen typischerweise die gesamte 3D-Punktwolke, identifizieren einige geometrische Schlüsselmerkmale (Grundelemente), passen die Merkmale über Punktwolken an und erzeugen eine optimale Hypothese unter Verwendung eines minimalen Satzes von Entsprechungen unter Verwendung eines RANdom Sample Consensus(RANSAC)-Vorgangs. Der durch globale Verfahren erhaltenen groben Registrierung folgt üblicherweise eine lokale, nichtlineare Verfeinerung. Globale Verfahren erfordern anders als lokale Verfahren keine Initialisierung. Jedoch können globale Verfahren unter nicht korrekten und ungenügenden Entsprechungen leiden. Die geometrischen Grundelemente, die typischerweise bei globalen Verfahren verwendet werden, sind entweder Punkte, Linien oder Ebenen.
  • Mehrere globale Registrierungsverfahren, die homogene und heterogene Entsprechungen verwenden, sind bekannt. Beispielsweise ist es möglich, eine Lösung in geschlossener Form für die Registrierung gegebener Punkt-zu-Punkt-, Linie-zu-Linie-, Ebene-zu-Ebene-, Punkt-zu-Linie-, Punkt-zu-Ebene- oder Linie-zu-Ebene-Entsprechungen zu bestimmen. Ein Verfahren erhält eine globale optimale Lösung von Punkt-zu-Punkt-, Punkt-zu-Linie- und Punkt-zu-Ebene-Entsprechungen unter Verwendung von Verzweigung-und-Grenze. Ein anderes Verfahren verwendet Verzweigung-und-Grenze, um die optimalen Entsprechungen sowie eine Transformation für das Punkt-zu-Punkt-Registrierungsproblem zu erhalten.
  • SLAM unter Verwendung von 3D-Sensoren
  • In der mobilen Robotertechnik verwenden einige auf 3D-Sensoren basierende Verfahren ein System für gleichzeitige Lokalisierung und Abbildung (SLAM) zum Bestimmen einer Bewegung des Sensors sowie zum Rekonstruieren einer Szenenstruktur. Derartige Verfahren verwenden typischerweise geometrische Merkmale wie Punkt-, Linien- oder Ebenengrundelemente. 3D-Sensoren, die eine ebene Scheibe von 3D-Daten vorsehen, wie 2D-Laserabtaster oder Ultraschallsensoren, können verwendet werden zum Bestimmen einer ebenen Bewegung mit drei Freiheitsgraden (DOF). 3D-Sensoren, die vollständige 3D-Punktwolken vorsehen, wie strukturierte Lichtabtaster, 2D-Laserabtaster, die an sich bewegenden Bühnen angebracht sind, und der Kinect-Sensor können zum Bestimmen von Bewegungen mit sechs DOF verwendet werden.
  • Das RGB-D-Abbilden zieht Schlüsselpunkte aus RGB-Bildern heraus, führt eine Rückprojektion der Punkte in 3D unter Verwendung von Tiefenkarten durch und verwendet drei Punkt-zu-Punkt-Entsprechungen, um eine anfängliche Schätzung der Positur unter Verwendung des RANSAC-Vorgangs zu bestimmen, die weiterhin unter Verwendung des ICP-Verfahrens verfeinert wird.
  • Ein anderes Verfahren verwendet drei Ebene-zu-Ebene-Korrespondenzen in einem SLAM-System mit 3D-Sensoren. Dieses Verfahren wendet sich dem Entsprechungsproblem unter Verwendung geometrischer Randbedingungen zwischen Ebenen zu.
  • Ein anderes Verfahren verwendet eine Kombination von kleinerem Gesichtsfeld(FOV)-3D-Sensor und einem größeren FOV-2D-Laserabtaster für das SLAM-System unter Verwendung sowohl von Ebenen als auch von Liniensegmenten als Grundformen. Dieses Verfahren ist für ein sequentielles SLAM-System entworfen, das ein lokales Registrierungsproblem löst, und kann eine globale Registrierung nicht lösen.
  • KinectFusion registriert eine gegenwärtige Tiefenkarte mit einer virtuellen Tiefenkarte, die aus einer Darstellung einer globalen abgeschnittenen, mit Vorzeichen versehenen Abstandsfunktion (TSDF) durch Verwendung eines ICP-Verfahrens von grob zu fein erzeugt wurde. Die TSDF-Darstellung integriert alle vorhergehenden Tiefenkarten, die in ein globales Koordinatensystem registriert sind, und ermöglicht die Erzeugung einer Tiefenkarte höherer Qualität als die Verwendung eines einzelnen Bildes.
  • Mehrere andere Varianten des ICP-Verfahrens sind bekannt, aber die Varianten leiden noch unter Problemen lokaler Minima, wenn die beiden 3D-Punktwolken verschieden sind. Registrierungsverfahren oder SLAM-Systeme, die nur von Punkten abhängig sind, leiden unter ungenügenden oder nicht korrekten Entsprechungen in texturlosen Bereichen oder Bereichen mit wiederholten Mustern. Auf Ebenen basierende Techniken leiden unter Degenerationsproblemen in Szenen, die eine nicht ausreichende Anzahl von nichtparallelen Ebenen enthalten.
  • Mit 3D-Sensoren wie dem Kinect-Sensor sind Linienentsprechungen schwierig zu erhalten aufgrund von gestörten oder fehlenden Tiefenwerten um Tiefendiskontinuitäten herum.
  • [Zusammenfassung der Erfindung]
  • Die Ausführungsbeispiele der Erfindung sehen ein Verfahren zum Registrieren von Daten in zwei verschiedenen Koordinatensystemen vor. Das Verfahren verwendet sowohl Punkte als auch Ebenen als Registrierungsgrundelemente. Das Verfahren kann von einem System für gleichzeitige Lokalisierung und Abbildung (SLAM) unter Verwendung von 3D-Sensoren angewendet werden. Das SLAM-System ist eine Anwendung unseres Registrierungsverfahrens.
  • Mit dem Verfahren ist es möglich, 3D-Datensätze in zwei verschiedenen Koordinatensystemen unter Verwendung jeder Kombination von zumindest drei Punkt- und Ebenengrundformaten zu registrieren, d. h., drei Ebenen, zwei Ebenen und ein Punkt, eine Ebene und zwei Punkte, und drei Punkte. Das Verfahren ist besonders befasst mit einem Satz von gemischten (heterogenen) Grundelementen, d. h., zumindest zwei 3D-Punkten und zumindest einer 3D-Ebene, oder zumindest einem 3D-Punkt und zumindest zwei 3D-Ebenen.
  • Das heißt, das Verfahren kann einen minimalen Satz von drei Grundelementen und einen RANSAC-Vorgang verwenden, um 3D-Daten zu registrieren und eine Szene zu rekonstruieren. Da die Anzahl von Ebenen in 3D-Daten beträchtlich kleiner als die Anzahl von Punkten ist, verwendet der bei den bevorzugten Ausführungsbeispielen durchgeführte RANSAC-Vorgang eine Grundelementenkombination, die mehr Ebenen als Punkte einbezieht, beispielsweise minimal zwei Ebenen und einen Punkt.
  • Im Gegensatz zu Verfahren nach dem Stand der Technik, die hauptsächlich Punkte für die Registrierung verwenden, hat das vorliegende Verfahren die folgenden Vorteile. Die Entsprechungssuche und die Registrierung sind schneller aufgrund der kleineren Anzahl von ebenen Grundelementen, und können in Echtzeit durchgeführt werden. Das Verfahren erzeugt auf Ebenen basierende 3D-Modelle, die kompakter als auf Punkten basierende Modelle sind. Das Verfahren sieht eine globale Registrierung vor, ohne unter lokalen Minima oder Initialisierungsproblemen wie bei den lokalen Registrierungsverfahren nach dem Stand der Technik zu leiden.
  • [Kurzbeschreibung der Zeichnungen]
  • 1 ist eine schematische Darstellung eines Registrierungsverfahrens gemäß Ausführungsbeispielen der Erfindung;
  • 2 ist ein Flussdiagramm eines Systems für gleichzeitige Lokalisierung und Abbildung (SLAM) unter Verwendung des Registrierungsverfahrens nach den Ausführungsbeispielen der Erfindung;
  • 3 ist eine schematische Darstellung eines RANSAC-Vorgangs, der von Ausführungsbeispielen der Erfindung verwendet wird; und
  • 4 ist eine schematische Darstellung eines gemischten, auf Ebene und Punkt basierenden Modells nach Ausführungsbeispielen der Erfindung.
  • [Beschreibung von Ausführungsbeispielen]
  • Die Ausführungsbeispiele der Erfindung sehen ein Verfahren zum Registrieren von 3D-Daten in zwei verschiedenen Koordinatensystemen vor. Wie in 1 gezeigt ist, kann das Verfahren in einem Prozessor 150 durchgeführt werden, der mit einem Speicher und Eingabe/Ausgabe-Schnittstellen verbunden ist, wie im Stand der Technik bekannt ist.
  • 1 zeigt eine schematische Darstellung des Registrierungsverfahrens 100. Das Registrierungsverfahren bestimmt eine Transformation 105 eines starren Körpers mit 6 DOF zwischen zwei verschiedenen Koordinatensystemen 101 und 102 durch Verwendung von zwei Sätzen aus zumindest drei Grundelementen, die aus 3D-Daten in den zwei verschiedenen Koordinatensystemen ausgewählt sind. Die Grundelemente enthalten 3D-Punkte 110 und 3D-Ebenen 120. Die drei Grundelemente in jedem Satz enthalten zumindest eine 3D-Ebene, zumindest einen 3D-Punkt und ein drittes Grundelement, das entweder ein Punkt oder eine Ebene sein kann. Ebenen in den zwei Sätzen sind mit Ebenen registriert, und Punkte sind mit Punkten registriert. Das Registrierungsverfahren kann global sein und in Echtzeit durchgeführt werden.
  • Das Registrierungsverfahren kann durch ein System zur gleichzeitigen Lokalisierung und Abbildung (SLAM) verwendet werden, wie in 2 gezeigt ist. Das SLAM-System ist eine Anwendung unseres Registrierungsverfahrens. Das System kann in einen Prozessor 200 implementiert werden, der mit einem Speicher und Eingabe/Ausgabe-Schnittstellen verbunden ist, wie im Stand der Technik bekannt ist. Eine beispielhafte Eingabe 201 in das SLAM-System ist ein Satz von einer oder mehreren Tiefenkarten 202. Eine Tiefenkarte beschreibt einen Tiefenwert (Abstand) jedes Pixels in der Karte, wodurch eine 3D-Punktwolke durch Rückprojektion der Pixel in der Karte gemäß ihren Tiefenwerten erhalten wird. Das SLAM-System kann wahlweise einen Satz von einem oder mehreren 2D-Texturbildern 203 entsprechend den Tiefenkarten erwerben. Die Texturbilder können graustufig sein oder RGB-Farbkanäle haben. Die Tiefenkarten können durch einen 3D-Sensor erworben werden, z. B. eine passive Stereokamera 204 oder eine aktive IR- oder Laserabtastvorrichtung 205, während die Texturbilder durch eine Kamera erworben werden können, beispielsweise eine einzelne Kamera in der Stereokamera 204 oder eine dedizierte Kamera 206. Der 3D-Sensor und die Kamera können von einem Menschen in der Hand gehalten werden, oder sie können von einer Maschine, beispielsweise einem Roboterarm oder einer sich mechanisch bewegenden Bühne gehalten werden. Das Schlüsselkonzept besteht darin, dass die Eingabe durch bewegbare Sensoren erworben werden kann; unser Registrierungsverfahren bestimmt die Bewegung der Sensoren und rekonstruiert eine Szene durch Registrieren von 3D-Punktwolken, die an verschiedenen Betrachtungspunkten erworben wurden.
  • Unser SLAM-System wählt 210 einen Satz von 3D-Punkt- und 3D-Ebenen-Grundelementen aus der Eingabe (als Messungen 211 bezeichnet) aus und registriert 220 die Punkte und Ebenen mit Bezug auf einen Satz von Punkt- und Ebenen-Grundelementen in einer globalen Karte 225 (als Wahrzeichen 221 bezeichnet). Jeder Satz enthält zumindest einen 3D-Punkt und zumindest eine 3D-Ebene. Die dritten Grundelemente in den Sätzen können entweder beide Punkte oder beide Ebenen sein. Die Registrierung wird durch Registrieren der Punkte mit Punkten in den beiden Sätzen und der Ebenen mit Ebenen in den beiden Sätzen durchgeführt.
  • Das SLAM-System führt das Registrierungsverfahren mit einem RANdom Sample Consensus(RANSAC)-Vorgang 220 unter Verwendung der minimal drei Grundelemente durch. Eine Optimierung 230 kann auf die globale Karte angewendet werden, wenn zusätzliche Eingaben erworben werden.
  • 3D-Punkte
  • Unser SLAM-System wählt einen oder mehrere Schlüsselpunkte in der 3D-Punktquelle aus, um die 3D-Punkt-Grundelemente zu erhalten. Die Schlüsselpunkte können unter Verwendung von 3D-Schlüsselpunktdetektoren aus der 3D-Punktquelle ohne Verwendung eines Texturbilds ausgewählt werden. Beispielhafte 3D-Schlüsselpunktdetektoren enthalten normal ausgerichtetes Radialmerkmal (NARF) und beschleunigtes 3D-Robustmerkmal (SURF). Alternativ kann das System 2D-Schlüsselpunkte aus jedem Texturbild unter Verwendung von 2D-Schlüsselpunktdetektoren auswählen und die Schlüsselpunkte unter Verwendung des entsprechenden Tiefenwerts rückprojizieren, um die 3D-Punkt-Grundelemente zu erhalten. Beispielhafte 2D-Schlüsselpunktdetektoren enthalten skaleninvariante Merkmalstransformation (SIFT) und beschleunigtes Robustmerkmal (SURF). Derartige 3D- und 2D-Schlüsselpunktdetektoren liefern auch einen Merkmalsdeskriptor für jeden erfassten Schlüsselpunkt.
  • Jedes Punkt-Grundelement wird durch eine Position pm und einen Deskriptor Dm dargestellt, (pm, Dm) eines Schlüsselpunkts. Der Deskriptor kann verwendet werden, um die 3D-Punkt-Grundelemente zwischen den Messungen und Wahrzeichen anzupassen.
  • 3D-Ebenen
  • Um Ebenen aus der 3D-Punktwolke auszuwählen, verwenden wir den folgenden iterativen Vorgang:
    • 1. Wahlloses Auswählen eines Satzes von Bezugspunkten in der 3D-Punktwolke;
    • 2. Bestimmen einer optimalen Ebene für jeden Bezugspunkt unter Verwendung von nahen Punkten innerhalb eines lokalen Fensters;
    • 3. Bestimmen alle Innenliegenden, die eine verbundene Komponente mit dem Bezugspunkt hinsichtlich eines Gitterdiagramms der Tiefenkarte bilden;
    • 4. Identifizieren einer optimalen Ebene mit einer ausreichenden und maximalen Anzahl von Innenliegenden; und
    • 5. Entfernen von Innenliegenden aus der 3D-Punktwolke.
  • Jedes Ebenen-Grundelement wird dargestellt durch Ebenenparameter πm und einen Satz von Innenliegenden Im. Die Ebenenparameter bilden einen 4D-Vektor πm = (n T / m , dm)T, wobei nm Normaleinheitsvektor ist, und dm ein Abstand zu dem Ursprung des Koordinatensystems ist.
  • Registrierung
  • Eine Positur 240 des Sensors (d. h., eine Transformation eines starren Körpers mit 6-DOF in Bezug auf ein Koordinatensystem der globalen Karte) wir bestimmt durch Registrieren der Grundelemente in den Messungen mit Bezug auf die Grundelemente in den Wahrzeichen auf der globalen Karte. Ein Registrierungsverfahren, das sowohl Punkte als auch Ebenen verwendet, und unser RANSAC-Vorgang werden nachfolgend beschrieben.
  • Kartenaktualisierung
  • Unser SLAM-System aktualisiert 250 die globale Karte durch Hinzufügen von Punkt- und Ebenen-Grundelementen, die aus Schlüsselrahmen ausgewählt wurden. Der gegenwärtige Rahmen wird nur dann als ein Schlüsselrahmen angesehen, wenn die Positur ausreichend verschieden von vorhergehenden Schlüsselrahmen ist (z. B. die Translation und die Drehung des gegenwärtigen Rahmens sind verschieden von den Translationen und Drehungen der vorhergehenden Schlüsselrahmen um mehr als vorbestimmte Schwellenwerte). Jedes Punkt-Wahrzeichen wird dargestellt durch die Position pl und den Deskriptor Dl als ((pl, Dl). Jedes Ebenen-Wahrzeichen wird durch Ebenen-Para meter = (n T / l , dl)T und einen Satz von Innenliegenden Il als ((πl, Il) dargestellt.
  • Kartenoptimierung
  • Um die Registrierung zwischen allen Schlüsselrahmen gemeinsam zu verfeinern, führt unser SLAM-System eine Optimierung 230 durch Bündeleinstellung durch, wobei sowohl die Punkte als auch die Ebenen verwendet werden. Die Bündeleinstellung wird in einem getrennten Teilprozess asynchron zu einem Hauptprozess zum Verfolgen der Kamerapositur unter Verwendung des Registrierungsverfahrens durchgeführt. Die Einzelheiten der Bündeleinstellung werden nachfolgend beschrieben.
  • Registrierung unter Verwendung von Punkten und Ebenen
  • Unser Registrierungsverfahren verwendet Punkt-zu-Punkt- und Ebene-zu-Ebene-Entsprechungen und liefert eine Lösung in geschlossener Form. Das Verfahren ist anwendbar auf drei oder mehr Entsprechungen. Somit kann das Verfahren zum Erzeugen von Hypothesen unter Verwendung der minimalen Anzahl von drei Entsprechungen in unserem RANSAC-Vorgang verwendet werden, sowie zum Verfeinern der anfänglichen Hypothese, die durch den RANSAC-Vorgang unter Verwendung der Entsprechungen sämtlicher Innenliegender gegeben ist.
  • Lösung in geschlossener Form für gemischte Punkt-zu-Punkt- und Ebene-zu-Ebene-Entsprechungen
  • Es seien {pi} und {p'i}, i = 1, ..., M, entsprechende 3D-Punkte, und {πj =(nj T, dj)T} und {π'j = (n'j T, d'j)T}, j = 1, ..., N, seien entsprechende 3D-Ebenen in zwei verschiedenen Koordinatensystemen. Wir bestimmen eine Transformation [R, t] eines starren Körpers mit 6-DOF zwischen den Koordinatensystemen, wobei R eine 3×3-Rotationsmatrix ist und t ein 3 × 1-Translationsvektor ist.
  • Lösungen für individuelle Fälle
  • Für Punkt-zu-Punkt-Entsprechungen können die Rotations- und Translationskomponenten entkoppelt werden. Es seien p = 1 / M Σipi und p ' = 1 / M Σip'i die Flächenschwerpunkte der 3D-Punktsätze, und qi = pi p und q'i = p'i p '. Dann wird eine Fehlerquadraturlösung für die Rotation, die den Fehler minimiert
    Figure DE112013003214T5_0002
    erhalten durch Verwenden einer Quaterniondarstellung der Drehung oder einer Singularwert-Zerlegung (SVD). Unter Verwendung der geschätzten Rotation R ist die Translation eine Differenz zwischen den gedrehten Flächenschwerpunkten t ^ = p' – R ^p. (2)
  • Für den Fall der Ebene-zu-Ebene-Entsprechung wird die Rotation durch Minimieren des Fehlers
    Figure DE112013003214T5_0003
    erhalten, der ähnlich dem Fall der Punkt-zu-Punkt-Korrespondenzen gelöst werden kann. Zum Bestimmen der Translation können wir die folgende lineare Randbedingungen für drei oder mehr Ebenen stapeln und das lineare System lösen: n'j Tt = d'j – dj. (4) Hier ist T ein Transponierungsoperator.
  • Lösung für gemischten Fall
  • Für den gemischten Fall haben wir Punkt-zu-Punkt- und Ebene-zu-Ebene-Entsprechungen. Wir nutzen die in den individuellen Fällen verwendete Entkopplung aus, um die Rotation und die Translation zu bestimmen. Um die Rotation zu bestimmen, kombinieren wir die Gleichungen (1) und (3) als
    Figure DE112013003214T5_0004
    worin wj die Gewichte für Ebenen sind, die sich für jede Ebenenentsprechung ändern können. Gleichung (5) teilt dieselbe Form wie die Gleichungen (1) und (3), und die optimale Rotation wird in derselben Weise erhalten. Insbesondere definieren wir eine 3×3-Korrelationsmatrix K als
    Figure DE112013003214T5_0005
  • Es sei K = UDVT eine Singularwert-Zerlegung (SVD) von K. Dann beträgt die optimale Drehung R ^
    Figure DE112013003214T5_0006
  • Um die Translation t zu bestimmen, minimieren wir den folgenden Fehler:
    Figure DE112013003214T5_0007
  • Dies entspricht dem Definieren eines linearen Systems
    Figure DE112013003214T5_0008
    mit einer diagonalen Gewichtsmatrix W = diag(M, M, M, W1, ...,WN). Dann ist eine gewichtete Fehlerquadraturlösung t = (ATWA)–1ATWb.
  • Degenerierungsprobleme
  • Zum einmaligen Auswählen von R und t sollten die Korrelationsmatrix K in Gleichung (6) und die Matrix in Gleichung (9) bestimmten Bedingungen genügen. Zum einmaligen Bestimmen von R sollte der Rang der Korrelationsmatrix K größer als eins sein, und zumindest eine der folgenden Bedingungen sollte vorliegen:
    • 1. det(UVT) = 1.
    • 2. Der minimale Singularwert von K ist eine einfache Wurzel.
  • Für die einmalige Bestimmung der Translation t sollte die Matrix A in Gleichung (9) den Rang drei haben.
  • Die Matrizen K und A genügen den vorgenannten Eigenschaften, wenn die Entsprechungen zumindest eine der folgenden aufweisen: 3 Ebenen, 2 Ebenen und 1 Punkt, 1 Ebene und 2 Punkte, und 3 Punkte. Bei dem RANSAC-Vorgang in unserem SLAM-System verwenden wir diese minimalen Anzahl von Entsprechungen, um Hypothesen zu erzeugen.
  • RANSAC-Vorgang
  • Im Gegensatz zu Entsprechungen nur in einem 2D-Bildraum sehen unsere 3D-Grundelemente mehrere Invarianten vor, die verwendet werden können, um falsche Anpassungen zu identifizieren. Wenn entsprechende Punkte und Ebenen in zwei verschiedenen Koordinatensystemen gegeben sind, sollten bestimmte geometrische Objekte, die in einem Koordinatensystem bestimmt sind, im Wesentlichen den entsprechenden Objekten in dem zweiten Koordinatensystem angepasst sein.
  • Wir identifizieren die folgenden drei Invarianten in jedem Koordinatensystem: I1 basierend auf dem Abstand zwischen zwei Punkten; I2 basierend auf dem Abstand zwischen einem Punkt und einer Ebene; und I3 basierend auf dem Winkel zwischen zwei ebenen Normalen.
  • Entsprechende geometrische Grundelemente können mit einem invarianten Vektor I = (i1, i2, i3) assoziiert sein, wobei i1, i2 und i3 der Anzahl von Invarianten mit Bezug auf de Typ I1, I2 bzw. I3 entsprechen.
  • Alle entsprechenden Tripel, die Punkte und Ebenen einbeziehen, besitzen insgesamt drei Invarianten: 3 Punkte: I = (3, 0, 0); 1 Ebene und 2 Punkte: I = (1, 2, 0); 2 Ebenen und 1 Punkt: I = (0, 2, 1); und 3 Ebenen: I = (0, 0, 3).
  • Ein Interpretationsbaum oder ein Abzweigungs-und-Grenze-Verfahren können verwendet werden, um falsche Anpassungen unter Verwendung dieser Invarianten zu identifizieren. Für unseren RANSAC-Vorgang verwenden wir eine einfache, auf einem Interpretationsbaum basierende Beschneidung.
  • Vor dem Löschen von Fehlanpassungen auf der Grundlage der Invarianten erhalten wir einige anfängliche Entsprechungen. In dem Fall von Punkten verwenden wir die SURF-Deskriptoren, um die Entsprechungen zu erhalten. In dem Fall von Ebenen beginnen wir mit allen möglichen Entsprechungen und löschen die Fehlanpassungen auf der Grundlage der Invarianten. Der RANSAC-Vorgang, der drei Ebenen verwendet, ist viel schneller als derjenige, der drei Punkte verwendet, da die Anzahl von Ebenen in 3D-Daten gewöhnlich viel kleiner als die entsprechende Anzahl von Punkten ist. Darüber hinaus werden, da Ebenen durch viele Punkte erzeugt werden, Ebenen weniger durch Störungen in 3D-Daten beeinträchtigt, was zu einer genaueren Registrierung führt. Daher initialisieren wir, wie in 3 gezeigt ist, den RANSAC-Vorgang mit einem Tripel von Grundelementen, falls verfügbar, in der folgenden bevorzugten Reihenfolge: 3 Ebenen 301, 2 Ebenen und 1 Punkt 302, 1 Ebene und 2 Punkte 303 oder 3 Punkte 304.
  • Eine Beendigungsbedingung für den RANSAC-Vorgang kann eine vorbestimmte minimale Anzahl von abzutastenden Entsprechungen sein.
  • Bündeleinstellung mit Punkten und Ebenen
  • Unser SLAM-System optimiert die folgenden Variablen bei der Bündeleinstellung: Punktwahrzeichen p i / l = (Xi, yi, zi), Ebenenwahrzeichen π j / l = (aj, bj, cj, dj), und Schlüsselrahmen-Posituren Tk = (t k / x , t k / y , t k / z , θ k / x , θ k / y , θ k / z ).
  • Hier sind tk = (t k / x , t k / y , t k / z ) die (x, y, z)-Komponenten der Translation des k-ten Schlüsselrahmens und θk = (θ k / x , θ k / y , θ k / z ) stellen die Rotation um die (x, y, z)-Achsen dar. Die Rotationsmatrix Rk des k-ten Schlüsselrahmens wird durch Rk = Rz k / z )Ry k / y )Rx k / x ) dargestellt.
  • Wir bestimmen eine Jacobi-determinante Matrix unter Verwendung von Punkt/Ebene-Grundelementen, die mit jedem Punkt/Ebenen-Wahrzeichen wie folgt assoziiert sind.
  • Punkt-Wahrzeichen
  • Für Punkt-Wahrzeichen minimieren wir einen euklidischen Abstandsfehler zwischen einem Punkt-Wahrzeichen p i / l und einem assoziierten Punkt p k / m = (x k / m , y k / m , z k / m ) in dem k-ten Schlüsselrahmen, der ∥p i / l – (Rkp k / m + tk)∥2 = 0. (10) ist.
  • Unter Verwendung der gegenwärtigen Schätzung des Wahrzeichens p ^ i / l = (x ^i, y ^i, z ^i) und der Schlüsselrahmen-Position [R ^k, t ^k], linearisieren wir Gleichung (10) als ∥p ^ i / l + Δp i / l – (ΔRkp ^ k / m + Δtk)∥2 = 0, (11) wobei p ^ k / m = R ^kp k / m + t ^k und
    Figure DE112013003214T5_0009
  • Aus Gleichung (11) erhalten wir drei Gleichungen getrennt für jede (x, y, z)-Komponente. Die Gleichung für die x-Komponente ist
    Figure DE112013003214T5_0010
    und diejenigen für die y- und die z-Komponente können in gleicher Weise erhalten werden.
  • Ebene-Wahrzeichen
  • Für Ebene-Wahrzeichen minimieren wir einen geometrischen Fehler, der durch eine Summe von Abständen zwischen einem Ebene-Wahrzeichen und 3D-Punkten, die von assoziierten Ebenen in einem Schlüsselrahmen abgetastet wurden, definiert ist. Genauer gesagt, wir tasten 3D-Punkte x k,s / m von innenliegenden 3D-Punkten eines ebenen Grundelements π k / m gleichförmig ab und bestimmen den Abstand zwischen jedem abgetasteten Punkt und dem assoziierten Ebene-Wahrzeichen π j / l . Somit beträgt der geometrische Fehler, den wir minimieren:
    Figure DE112013003214T5_0011
  • Wir linearisieren Gleichung (14) unter Verwendung einer gegenwärtigen Schätzung des Ebene-Wahrzeichens π ^ j / l = (a ^j, b ^j, c ^j, d ^j), und der Schlüsselrahmen-Positur [R ^k, t ^k] als
    Figure DE112013003214T5_0012
    wobei x ^ k,s / m = R ^kx k,s / m + t ^k = (x ^ k,s / m , y ^ k,s / m , z ^ k,s / m ). Nach Vereinfachung haben wir
    Figure DE112013003214T5_0013
  • Geometrische Randbedingungen zwischen Ebene-Wahrzeichen
  • Unser SLAM-System kann wahlweise geometrische Randbedingungen zwischen Ebene-Wahrzeichen in der Bündeleinstellung durchsetzen. Die geometrischen Randbedingungen enthalten Parallelität und Orthogonalität. Orthogonale oder parallele Ebenen können gemeinsam in einem künstlichen Umfeld beobachtet werden, in welchem das Durchsetzen der geometrischen Randbedingungen nützlich ist, um eine genaue Registrierung zu erhalten.
  • Für jedes Paar von Ebene-Wahrzeichen π j / l = (aj, bj, cj, dj) und π j' / l = (aj', bj', cj', dj') prüfen wir, ob der Winkel zwischen Normalvektoren der beiden Ebene ausreichend nahe an 0 Grad (parallel) oder 90 Grad (orthogonal) unter Verwendung eines vorbestimmten Schwellenwerts ist. Wenn dies der Fall ist, setzen wir die folgende Randbedingung durch ajaj' + bjbj' + cjcj' = S, (17) worin S = 1 ist, wenn die beiden Ebenen ausreichend nah sind, um parallel zu sein, während S = 0 ist, wenn die beiden Ebenen ausreichend nahe sind, um orthogonal zu sein.
  • Unter Verwendung von gegenwärtigen Schätzungen der beiden Ebene-Wahrzeichen π ^ j / l = (a ^j, b ^j, c ^j, d ^j) und π ^ j' / l = (a ^j', b ^j', c ^j', d ^j') linearisieren wir Gleichung (17) als (a ^j + Δaj)(a ^j' + Δaj') + (b ^j + Δbj)(b ^j' + Δbj') + (c ^j + Δcj)(c ^j' + Δcj') = S. (18)
  • Nach Vereinfachung ergibt Gleichung (18)
    Figure DE112013003214T5_0014
  • Lösung
  • Das Stapeln der Gleichungen (13), (16) und (19) für alle Wahrzeichen und Schlüsselrahmen führt zu einem linearen System JΔ = –ε0, wobei die Jacobi-determinante Matrix gleich J ist, der Fehlervektor gleich ε0 ist und der Aktualisierungsvektor gleich Δ = (Δp i / l , Δπ j / l , ΔTk) ist. Wir verwenden ein Gauss-Newton'sches Verfahren, um das Optimierungsproblem zu lösen.
  • Implementierung
  • Unser Echtzeit-SLAM-System verwendet Texturbilder und Tiefenkarten mit einer 640×480 Pixel-Auflösung. Wir visualisieren die Punkt- und Ebene-Wahrzeichen, die über die gegenwärtige Punktwolke überlagert sind, wenn die Registrierung erfolgreich ist. Unser SLAM-System bestimmt immer die globale Registrierung Rahmen-für-Rahmen mit Bezug auf die globale Karte. Somit beeinträchtigen Registrierungsfehler nachfolgende Eingaben nicht. Unser SLAM-System liefert rekonstruierte Ebene-Wahrzeichen als eine auf Ebenen basierende Darstellung der Szene, die kompakter ist und mehr semantische Informationen liefert als eine Darstellung der Szene auf Punktbasis.
  • [Wirkung der Erfindung]
  • Die Erfindung sieht ein Registrierungsverfahren vor, das sowohl Punkte als auch Ebenen als Grundelemente verwendet, um 3D-Daten in zwei verschiedenen Koordinatensystemen zu registrieren. Unter Verwendung des Registrierungsverfahrens wird ein Echtzeit-SLAM-System für 3D-Sensoren, das sowohl Punkt-zu-Punkt- und Ebene-zu-Ebene-Entsprechungen für die Registrierung verwendet, entwickelt. Die Verwendung beider Grundelemente ermöglicht eine schnellere und genauere Registrierung als die Verwendung nur von Punkten. Unser SLAM-System erzeugt ein 3D-Modell als einen Satz von Ebenen, der kompaktere und mehr semantische Informationen der Szene liefert als streng punktbasierte Darstellungen.
  • Die Erfindung zeigt, dass jede Kombination von drei 3D-Punkt/Ebene-Grundelementen die Registrierung zwischen zwei verschiedenen Koordinatensystemen ermöglicht. Die Erfindung zeigt auch ein Bündeleinstellungs-Gerüst, das sowohl 3D-Punkte als auch 3D-Ebenen verwendet, um gemeinsam die Registrierung zwischen mehreren Koordinatensystemen zu optimieren. Das Bündeleinstellungs-Gerüst kann geometrische Randbedingungen zwischen 3D-Ebenen durchsetzen, wie Parallelität und Orthogonalität, um die Registrierungsgenauigkeit für künstliche Umfelder weiter zu verbessern.
  • Die Verwendung von Ebenen ermöglicht sowohl eine schnellere Rekonstruktion als auch ein kompaktes Modellieren. Lokale Verfahren wie iterative Verfahren für den nächstliegenden Punkt (ICP) neigen zu lokalen Minima-Problemen bei schneller Bewegung des 3D-Sensors, während unser Registrierungsverfahren eine globale Lösung liefert und lokale Minima-Probleme vermeidet.
  • Das Verfahren unterscheidet sich von Verfahren, die Ebene-Grundelemente aus 3D-Punktwolken, die bereits registriert sind, herausziehen. Stattdessen verwendet das Verfahren Ebene- und Punkt-Grundelemente, die aus einer individuellen 3D-Punktwolke für die Registrierung ausgewählt sind. Die Verwendung von Ebenen mit Punkten in der Registrierung ermöglicht eine effizientere und genauere Registrierung als die Verwendung nur von Punkten.
  • Wie in 4 gezeigt ist, ist die Ausgabe unseres SLAM-Systems eine registrierte Punktwolke 401 und eine Darstellung 402 der Szene auf Ebenenbasis. Die Darstellung auf Ebenenbasis liefert kompaktere und mehr semantische Informationen als die Darstellung auf Punktbasis. Die Darstellung wird in Echtzeit erzeugt.
  • Da die Erfindung sowohl Punkte als auch Ebenen verwendet, werden bei Verfahren nach dem Stand der Technik vorhandene Fehler vermieden. Dieser gemischte Registrierungsmodus ist neu.
  • Eine Lösung in geschlossener Form zur Registrierung wird für Punkt-zu-Punkt- und Ebene-zu-Ebene-Entsprechungen in einer vereinigten Weise erhalten.

Claims (20)

  1. Verfahren zum Registrieren von Daten, bei dem die Daten drei Dimensionen haben, aufweisend die Schritte: Auswählen eines ersten Satzes von Grundelementen aus den Daten in einem ersten Koordinatensystem, wobei der erste Satz von Grundelementen zumindest eine Ebene, zumindest einen Punkt und ein drittes Grundelement, das entweder ein Punkt oder eine Ebene ist, enthält; Auswählen eines zweiten Satzes von Grundelementen aus den Daten in einem zweiten Koordinatensystem, wobei der zweite Satz von Grundelementen zumindest eine Ebene, zumindest einen Punkt und ein drittes Grundelement entsprechend dem dritten Grundelement in dem ersten Satz von Grundelementen enthält; und Registrieren, in dem ersten und dem zweiten Satz von Grundelementen, von Ebenen miteinander und von Punkten miteinander, um registrierte Grundelemente zu erhalten.
  2. Verfahren nach Anspruch 1, bei dem das Registrieren in einem System zum gleichzeitigen Lokalisieren und Abbilden verwendet wird.
  3. Verfahren nach Anspruch 1, bei dem das Registrieren global ist.
  4. Verfahren nach Anspruch 1, bei dem das Registrieren in Echtzeit erfolgt.
  5. Verfahren nach Anspruch 2, weiterhin aufweisend: Erwerben der Daten als eine Tiefenkarte.
  6. Verfahren nach Anspruch 5, bei dem die Tiefenkarte durch einen 3D-Sensor erworben wird.
  7. Verfahren nach Anspruch 5, weiterhin aufweisend: Aufrechterhalten der registrierten Grundelemente in einer globalen Karte.
  8. Verfahren nach Anspruch 5, bei dem das Registrieren einen wahllosen Abtastübereinstimmungsvorgang verwendet.
  9. Verfahren nach Anspruch 5, weiterhin aufweisend: Darstellen jedes Punkts durch eine Position und einen Deskriptor, und jeder Ebene durch einen Einheitsnormalvektor und einen Abstand zu einem Ursprung des entsprechenden Koordinatensystems.
  10. Verfahren nach Anspruch 5, bei dem jede Ebene ausgewählt ist durch: wahlloses Auswählen eines Satzes von Bezugspunkten in einer 3D-Punktwolke; Bestimmen einer optimalen Ebene für jeden Bezugspunkt unter Verwendung naheliegender Punkte innerhalb eines lokalen Fensters; Bestimmen aller Innenliegenden, die eine verbundene Komponente mit dem Bezugspunkt hinsichtlich eines Gitterdiagramms der Tiefenkarte bilden; Identifizieren einer optimalen Ebene mit einer vorbestimmten Anzahl der Innenliegenden; und Entfernen der Innenliegenden aus der 3D-Punktwolke.
  11. Verfahren nach Anspruch 7, bei dem die globale Karte durch Bündeleinstellung unter Verwendung der Punkte und der Ebenen optimiert wird.
  12. Verfahren nach Anspruch 1, weiterhin aufweisend: Identifizieren falscher Anpassungen während der Registrierung auf der Grundlage von: eines Abstands zwischen Punkten; eines Abstands zwischen einem Punkt und einer Ebene; oder eines Winkels zwischen Normalen von zwei Ebenen in jedem Koordinatensystem.
  13. Verfahren nach Anspruch 8, weiterhin aufweisend: Initialisieren des wahllosen Abtastübereinstimmungsvorgangs mit einem verfügbaren Tripel von Grundelementen in einer folgenden Reihenfolge: 3 Ebenen, 2 Ebenen und 1 Punkt, 1 Ebene und 2 Punkte, oder 3 Punkte.
  14. Verfahren nach Anspruch 5, bei dem jeder Punkt durch einen 3D-Schlüsselpunktdetektor ausgewählt wird.
  15. Verfahren nach Anspruch 11, bei dem die Bündeleinstellung geometrische Randbedingungen zwischen den Ebenen durchsetzt.
  16. Verfahren nach Anspruch 1, bei dem eine Ausgabe des Verfahrens eine registrierte Punktwolke und eine Darstellung einer Szene auf Ebenenbasis enthält.
  17. Verfahren nach Anspruch 6, bei dem der 3D-Sensor während des Erwerbens bewegbar ist.
  18. Verfahren nach Anspruch 5, weiterhin aufweisend: Erwerben eines Texturbilds entsprechend der Tiefenkarte.
  19. Verfahren nach Anspruch 18, bei dem jeder Punkt ausgewählt wird durch einen 2D-Schlüsselpunktdetektor, der auf das Texturbild angewendet wird, und Rückprojizieren erfasster Schlüsselpunkte unter Verwendung der Tiefenkarte.
  20. Verfahren nach Anspruch 19, bei dem das Texturbild durch eine Kamera erworben wird.
DE112013003214.7T 2012-06-29 2013-06-20 Verfahren zum Registrieren von Daten Pending DE112013003214T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/539,060 2012-06-29
US13/539,060 US9183631B2 (en) 2012-06-29 2012-06-29 Method for registering points and planes of 3D data in multiple coordinate systems
PCT/JP2013/067583 WO2014003081A1 (en) 2012-06-29 2013-06-20 Method for registering data

Publications (1)

Publication Number Publication Date
DE112013003214T5 true DE112013003214T5 (de) 2015-04-02

Family

ID=48782575

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013003214.7T Pending DE112013003214T5 (de) 2012-06-29 2013-06-20 Verfahren zum Registrieren von Daten

Country Status (7)

Country Link
US (1) US9183631B2 (de)
JP (1) JP5955406B2 (de)
KR (1) KR101643079B1 (de)
CN (1) CN104395932B (de)
DE (1) DE112013003214T5 (de)
TW (1) TWI569229B (de)
WO (1) WO2014003081A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3187859A1 (de) * 2015-12-30 2017-07-05 Faurecia Innenraum Systeme GmbH Verfahren zur ermittlung von oberflächendefekten sowie computer-programmprodukt

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
RU2013106319A (ru) * 2013-02-13 2014-08-20 ЭлЭсАй Корпорейшн Основанная на характерных точках надежная регистрация трехмерного твердого тела
KR102084253B1 (ko) * 2013-11-20 2020-03-03 한국전자통신연구원 복원조각과 볼륨형 표면을 이용하는 카메라 트래킹 장치 및 방법
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9171403B2 (en) * 2014-02-13 2015-10-27 Microsoft Technology Licensing, Llc Contour completion for augmenting surface reconstructions
US10242453B2 (en) * 2014-04-30 2019-03-26 Longsand Limited Simultaneous localization and mapping initialization
US9430847B2 (en) 2014-06-12 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method for stereo visual odometry using points, lines and planes
WO2016029970A1 (en) * 2014-08-29 2016-03-03 Toyota Motor Europe Nv/Sa Method and system for scanning an object using an rgb-d sensor
CN106796721B (zh) * 2014-09-11 2021-05-04 赛博光学公司 三维轮廓测量中根据多个相机和源的点云合并
US9846963B2 (en) 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
TWI554976B (zh) * 2014-11-17 2016-10-21 財團法人工業技術研究院 監控系統及其影像處理方法
US10360469B2 (en) * 2015-01-15 2019-07-23 Samsung Electronics Co., Ltd. Registration method and apparatus for 3D image data
WO2016161136A1 (en) * 2015-03-31 2016-10-06 Nxgen Partners Ip, Llc Compression of signals, images and video for multimedia, communications and other applications
CN107667310B (zh) * 2015-06-02 2021-01-01 生命技术公司 荧光成像系统
US9460513B1 (en) * 2015-06-17 2016-10-04 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
ITUB20154043A1 (it) 2015-09-30 2017-03-30 Datalogic IP Tech Srl Sistema e metodo di lettura di informazioni codificate
US11054802B2 (en) * 2015-10-21 2021-07-06 Mitsubishi Electric Research Laboratories, Inc. System and method for performing operations of numerical control machines
US10217277B2 (en) * 2015-12-04 2019-02-26 Autodesk, Inc. Keypoint-based point-pair-feature for scalable automatic global registration of large RGB-D scans
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
CN108474653B (zh) 2016-01-20 2020-03-20 三菱电机株式会社 三维计测装置及其计测辅助处理方法
US10482681B2 (en) 2016-02-09 2019-11-19 Intel Corporation Recognition-based object segmentation of a 3-dimensional image
US10373380B2 (en) 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
FR3048872B1 (fr) * 2016-03-21 2018-04-13 Medtech Sa Procede et dispositif de recalage automatise pour un robot chirurgical
US10573018B2 (en) * 2016-07-13 2020-02-25 Intel Corporation Three dimensional scene reconstruction based on contextual analysis
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10339716B1 (en) 2016-09-19 2019-07-02 Occipital, Inc. System and method for dense, large scale scene reconstruction
US10176589B2 (en) 2017-01-31 2019-01-08 Mitsubishi Electric Research Labroatories, Inc. Method and system for completing point clouds using planar segments
US10659768B2 (en) 2017-02-28 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. System and method for virtually-augmented visual simultaneous localization and mapping
JP6692321B2 (ja) * 2017-05-25 2020-05-13 日本電信電話株式会社 幾何的合わせこみ装置、方法、及びプログラム
US10848741B2 (en) * 2017-06-12 2020-11-24 Adobe Inc. Re-cinematography for spherical video
TWI652447B (zh) 2017-09-12 2019-03-01 財團法人成大研究發展基金會 適用於疊代最近點法以選擇關鍵圖框的系統與方法
WO2019057179A1 (zh) * 2017-09-22 2019-03-28 华为技术有限公司 一种基于点线特征的视觉slam方法和装置
CN109579794B (zh) * 2017-09-28 2021-03-23 财团法人成大研究发展基金会 适用于迭代最近点法以选择关键图框的系统与方法
US11212507B2 (en) 2017-11-16 2021-12-28 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional images
TWI651687B (zh) 2017-11-24 2019-02-21 財團法人工業技術研究院 三維模型建構方法及其系統
KR101988555B1 (ko) * 2017-12-05 2019-06-12 충북대학교 산학협력단 조명 불변 영상을 사용한 slam 시스템 및 점구름 지도 생성 방법
CN108776990A (zh) * 2018-04-10 2018-11-09 清华大学 基于三阶球面谐波的动态场景高精度实时三维重建方法及系统
CN109345574B (zh) * 2018-08-31 2020-10-09 西安电子科技大学 基于语义点云配准的激光雷达三维建图方法
CN112912927A (zh) 2018-10-18 2021-06-04 富士通株式会社 计算方法、计算程序及信息处理装置
CN111582293B (zh) * 2019-02-19 2023-03-24 曜科智能科技(上海)有限公司 平面几何一致性检测方法、计算机设备、及存储介质
JP7220591B2 (ja) * 2019-03-07 2023-02-10 三菱重工業株式会社 自己位置推定装置、自己位置推定方法及びプログラム
CN110009726B (zh) * 2019-03-08 2022-09-30 浙江中海达空间信息技术有限公司 一种根据平面基元间的结构关系对点云提取平面的方法
TWI675000B (zh) * 2019-03-22 2019-10-21 所羅門股份有限公司 物件運送方法及系統
CN109949412B (zh) 2019-03-26 2021-03-02 腾讯科技(深圳)有限公司 一种三维对象重建方法和装置
US11289078B2 (en) * 2019-06-28 2022-03-29 Intel Corporation Voice controlled camera with AI scene detection for precise focusing
US11138465B2 (en) 2019-12-10 2021-10-05 Toyota Research Institute, Inc. Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
WO2021235458A1 (ja) * 2020-05-21 2021-11-25 株式会社ソシオネクスト マップ情報更新方法、ランドマーク生成方法、及び特徴点分布調整方法
CN111899291A (zh) * 2020-08-05 2020-11-06 深圳市数字城市工程研究中心 基于多源维度分解的城市点云从粗到精的自动配准方法
CN112001955A (zh) * 2020-08-24 2020-11-27 深圳市建设综合勘察设计院有限公司 一种基于二维投影平面匹配约束的点云配准方法及系统
CN112348893B (zh) 2020-10-30 2021-11-19 珠海一微半导体股份有限公司 一种局部点云地图构建方法及视觉机器人
US11481925B1 (en) 2020-11-23 2022-10-25 Zillow, Inc. Automated determination of image acquisition locations in building interiors using determined room shapes
CN113311412B (zh) * 2021-05-13 2024-03-01 哈尔滨工业大学 用于移动机器人的激光雷达传感器六维外参标定方法
CN114463396B (zh) * 2022-01-07 2024-02-06 武汉大学 一种利用平面形状和拓扑图投票的点云配准方法
CN114882087B (zh) * 2022-07-12 2022-10-04 武汉瀚迈科技有限公司 针对具有不完整基本图元的三维扫描点云实时配准方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3738456B2 (ja) * 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
JP2000337831A (ja) * 1999-05-28 2000-12-08 Minolta Co Ltd 3次元データの位置合わせ方法
JP2003162549A (ja) * 2001-11-28 2003-06-06 National Institute Of Advanced Industrial & Technology 統合された形状モデル生成方法及びコンピュータプログラム
WO2004059900A2 (en) * 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
JP3855053B2 (ja) * 2003-01-30 2006-12-06 国立大学法人 東京大学 画像処理装置、画像処理方法、及び画像処理プログラム
CN1312633C (zh) * 2004-04-13 2007-04-25 清华大学 大规模三维场景多视点激光扫描数据自动配准方法
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
CN100559398C (zh) * 2007-06-19 2009-11-11 北京航空航天大学 自动的深度图像配准方法
TWI358606B (en) 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
JP5141507B2 (ja) * 2008-08-25 2013-02-13 村田機械株式会社 自律移動装置
JP2010066595A (ja) * 2008-09-11 2010-03-25 Toyota Motor Corp 環境地図生成装置及び環境地図生成方法
EP2422295A1 (de) * 2009-04-23 2012-02-29 Koninklijke Philips Electronics N.V. Objektlernender roboter und verfahren
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2011095858A (ja) * 2009-10-27 2011-05-12 Panasonic Electric Works Co Ltd 3次元デジタイザ
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
JP5580164B2 (ja) * 2010-10-18 2014-08-27 株式会社トプコン 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
EP2451164B1 (de) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Verbesserte Ansichtssynthese
US20120250984A1 (en) * 2010-12-01 2012-10-04 The Trustees Of The University Of Pennsylvania Image segmentation for distributed target tracking and scene analysis
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3187859A1 (de) * 2015-12-30 2017-07-05 Faurecia Innenraum Systeme GmbH Verfahren zur ermittlung von oberflächendefekten sowie computer-programmprodukt
DE102015017010A1 (de) * 2015-12-30 2017-07-06 Faurecia Innenraum Systeme Gmbh Verfahren zur Ermittlung von Oberflächendefekten sowie Computer-Programmprodukt

Also Published As

Publication number Publication date
CN104395932B (zh) 2017-04-26
JP2015515655A (ja) 2015-05-28
US20140003705A1 (en) 2014-01-02
TWI569229B (zh) 2017-02-01
KR101643079B1 (ko) 2016-07-26
US9183631B2 (en) 2015-11-10
TW201415414A (zh) 2014-04-16
JP5955406B2 (ja) 2016-07-20
CN104395932A (zh) 2015-03-04
WO2014003081A1 (en) 2014-01-03
KR20150024349A (ko) 2015-03-06

Similar Documents

Publication Publication Date Title
DE112013003214T5 (de) Verfahren zum Registrieren von Daten
EP3657440B1 (de) Verfahren und system zur dreidimensionalen rekonstruktion eines menschlichen kopfes aus mehreren bildern
CN109035388B (zh) 三维人脸模型重建方法及装置
DE112004000393B4 (de) System und Verfahren zum Verfolgen einer globalen Form eines in Bewegung befindlichen Objekts
DE112012005350B4 (de) Verfahren zum Schätzen der Stellung eines Objekts
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
CN111414798A (zh) 基于rgb-d图像的头部姿态检测方法及系统
DE69910757T2 (de) Wavelet-basierte gesichtsbewegungserfassung für avataranimation
CN108665537B (zh) 联合优化人体体态与外观模型的三维重建方法及系统
DE69722378T2 (de) Verfahren und vorrichtung zur bearbeitung eines dreidimensionalen bildes mit hilfe der parallaxgeometrie von punktpaaren
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE102004049676A1 (de) Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
DE112005001743T5 (de) System und Verfahren zur Registrierung und Modellierung verformbarer Formen durch direkte Faktorisierung
DE102006054822A1 (de) Registrierung eines charakteristischen Pfads eines Kolons
DE112014006911T5 (de) Verfahren und System zum Scannen eines Objekts unter Verwendung eines RGB-D-Sensors
DE102015200260A1 (de) Verfahren zum Erstellen eines Deskriptors für ein Szenenbild
DE10304360A1 (de) Unstarre Bilderfassung unter Verwendung von Abstandsfunktionen
Crispell et al. Pix2face: Direct 3d face model estimation
EP2528042A1 (de) Verfahren und Vorrichtung zum Re-Meshing von 3D-Polygonmodellen
DE112017003426T5 (de) Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung
CN110916707A (zh) 二维骨骼图像获取方法、系统及装置
DE102016123149A1 (de) Bilddatenbasierte rekonstruktion dreidimensionaler oberflächen
Gårding et al. Direct estimation of local surface shape in a fixating binocular vision system
DE112014002943T5 (de) Verfahren zur Registrierung von Daten unter Verwendung eines Satzes von Grundelementen
DE10196664T5 (de) Szenenrekonstruktion und Kamerakalibrierung bei robuster Verwendung von Chiralität

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication