DE112012005350T5 - Verfahren zum Schätzen der Stellung eines Objekts - Google Patents

Verfahren zum Schätzen der Stellung eines Objekts Download PDF

Info

Publication number
DE112012005350T5
DE112012005350T5 DE112012005350.8T DE112012005350T DE112012005350T5 DE 112012005350 T5 DE112012005350 T5 DE 112012005350T5 DE 112012005350 T DE112012005350 T DE 112012005350T DE 112012005350 T5 DE112012005350 T5 DE 112012005350T5
Authority
DE
Germany
Prior art keywords
pair
points
boundary
oriented
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112012005350.8T
Other languages
English (en)
Other versions
DE112012005350B4 (de
Inventor
Liu Ming-Yu
Yuichi Taguchi
Oncel Tuzel
Srikumar Ramalingam
Changhyun Choi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112012005350T5 publication Critical patent/DE112012005350T5/de
Application granted granted Critical
Publication of DE112012005350B4 publication Critical patent/DE112012005350B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Eine Stellung eines Objekts wird geschätzt, indem zuerst ein Satz von Paarmerkmalen als Paare von geometrischen Zeichenelementen definiert wird, wobei die geometrischen Zeichenelemente orientierte Oberflächenpunkte, orientierte Grenzpunkte und Grenzliniensegmente enthalten. Modellpaarmerkmale werden bestimmt auf der Grundlage des Satzes von Paarmerkmalen für ein Modell des Objekts. Szenepaarmerkmale werden bestimmt auf der Grundlage des Satzes von Paarmerkmalen anhand von durch einen 3D-Sensor erfassten Daten, und dann wird die Gleichheit der Modellpaarmerkmale und der Szenepaarmerkmale geprüft, um die Stellung des Objekts zu schätzen.

Description

  • TECHNISCHES GEBIET
  • Diese Erfindung bezieht sich allgemein auf das Schätzen von Stellungen von 3D-Objekten und insbesondere auf das Schätzen von Stellungen anhand von durch 3D-Sensoren erfassten Daten.
  • STAND DER TECHNIK
  • Die Stellung eines Objekts hat 6-Freiheitsgrade (6-DoF), d. h., 3D-Linearbewegung und 3D-Drehung. Das Problem der Stellungsschätzung bezieht sich auf das Finden der Stellung eines Objekts hinsichtlich eines Bezugskoordinatensystems, üblicherweise des Koordinatensystems eines Sensors. Die Stellung kann erfasst werden unter Verwendung von Messungen von Sensoren, z. B. 2D-Bildern, 3D-Punktwolken, mit 3D-Modellen. Die Stellungsschätzung spielt eine größere Rolle bei vielen Roboteranwendungen wie Behälteraufnahme, Ergreifen, Lokalisieren, autonome Navigation und 3D-Rekonstruktion.
  • Bis vor kurzem erfolgte die Stellungsschätzung primär durch Verwendung von 2D-Bildern, da Kameras kosteneffektiv sind und eine schnelle Bilderfassung ermöglichen. Das Hauptproblem bei 2D-Bildern besteht darin, die 2D-Merkmale mit ihren entsprechenden 3D-Merkmalen in dem Modell in Übereinstimmung zu bringen. Dies ist eine Herausforderung aufgrund verschiedener Beleuchtungsbedingungen und unterschiedlicher Betrachtungspunkte der Kamera, was Änderungen der Drehung und des Maßstabs in dem Bildraum bewirkt. Weiterhin können einige Ansichten des Objekts theoretisch zu mehrdeutigen Stellungen führen. Mehrere konstante Merkmalsdeskriptoren sind bekannt, um die Entsprechungen zwischen einem Eingangsbild und einer Datenbank aus Bildern zu bestimmen, wobei die 2D-Schlüsselpunkte den 3D-Koordinaten angepasst werden.
  • Viele industrielle Teile sind texturlos, z. B. bearbeitete Metallteile oder gegossene Kunststoffteile. Daher muss man sich stark auf beobachtbare Kanten in den Bildern verlassen. Wenn Grenzen eines Objekts verwendet werden, ist häufig ein Satz von Kantenschablonen eines Objekts vorher bekannt, und die Schablonen werden in Abfragekantenkarten gesucht. Mehrere Varianten, die Kantenorientierung oder hierarchische Darstellung enthalten, sind bekannt. Auf Intensität basierende Kantenerfassung ergibt häufig zu viele Kantenpixel, wobei nur wenige nützliche Kanten sind, die sich aus Tiefenunterbrechungen ergeben. Eine Mehrblitzkamera kann verwendet werden, um Tiefenkanten direkt zu schätzen, indem Schatten aus mehreren Blitzrichtungen geworfen werden.
  • Im Allgemeinen haben 3D-Daten, die durch 3D-Sensoren erhalten wurden, erheblich weniger Varianten im Gegensatz zu 2D-Daten. Die Hauptherausforderung besteht darin, das Entsprechungsproblem in Anwesenheit von Sensorrauschen, Okklusionen und Störflecken zu lösen. Das Entsprechungsproblem bezieht sich auf das Finden einer Eins-zu-Eins-Übereinstimmung zwischen Merkmalen in den Daten und Merkmalen in dem Modell. Die Merkmale werden üblicherweise konstruiert, um die Größe und die Form des Objekts zu charakterisieren. Mehrere 3D-Merkmalsdeskriptoren, die die Verteilungen von Oberflächenpunkten und Normalen verwenden, sowie Anpassungsvorgänge sind bekannt. Derartige Deskriptoren sind allgemein unveränderlich für die Transformation starrer Körper, aber empfindlich gegenüber Störungen und Okklusion. Weiterhin erfordern derartige Merkmale dichte Punktwolken, die nicht verfügbar sein können.
  • Eine Stellungsschätzung ist durchführbar mit verschiedenen Arten von Entsprechungen zwischen 3D-Sensordaten und dem Modell: 3 Punkt-Entsprechungen, 2 Linien-Entsprechungen und 6 Punkte zu 3 oder mehr Ebenen. Typischerweise werden derartige Entsprechungen in einem Hypothetisier- und Prüf-Rahmenwerk wie RANdom Sample Consensus (RANSAC) verwendet, um die Stellung zu bestimmen. Alternativ kann die Stellung aus dem Modus der hypothetisierten Stellungsverteilung gewonnen werden entweder durch Verwendung eines Hough-Abstimmschemas oder Gruppieren in dem Parameterraum. Derartige Maßnahmen leiden an zwei Problemen, wenn nur 3D-Sensordaten ohne Bilder oder andere vorherige Informationen verfügbar sind. Punkte, Linien und Ebenen sind individuell nicht sehr unterscheidbar und sind kombinatorisch auf Gleichheit zu prüfen, und es ist schwierig, eine schnelle Berechnung ohne irgendeine frühere Verarbeitung bei dem Modell zu erzielen.
  • Ein Paarmerkmal kann definiert werden durch einen Abstand und relative Orientierungen zwischen zwei orientierten Punkten auf der Oberfläche eines Objekts. Ein Objekt wird dargestellt durch einen Satz von Paarmerkmalen orientierter Punkte, der in einer Hash-Tabelle
    Figure DE112012005350T5_0002
    für schnellen Abruf gespeichert ist. Zufällige zwei Punkte werden aus den Sensordaten abgetastet und jedes derartige Paar stimmt für eine besondere Stellung ab. Die geforderte Stellung entspricht derjenigen mit einer großen Anzahl von Stimmen. Ein einfacheres Paarmerkmal bestehend aus der Tiefendifferenz zwischen einem Pixel und einem versetzten Pixel wird verwendet für eine menschliche Stellungsschätzung mit einem Zufallsdatenstrukturwald-Gesamtklassifizierer.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Ausführungsbeispiele der Erfindung sehen ein auf einer Schätzung basierendes Verfahren zum Schätzen einer Stellung eines Objekts aus durch einen 3D-Sensor erfassten Daten vor. Obgleich orientierte Oberflächenpunkte (Punkte auf der Oberfläche eines Objekts mit Normalen), die im Stand der Technik verwendet werden, unterscheidbar für Objekte mit erheblichen Krümmungsänderungen sind, sind derartige Oberflächenpunkte nicht kompakt und ausreichend unterscheidbar für viele industrielle und tatsächliche Objekte, die planar sind.
  • Um Informationen über Grenzen zu erhalten, spielen Kanten eine Schlüsselrolle bei der 2D-Registrierung, während Tiefenunterbrechungen bei 3D entscheidend sind. Die Ausführungsbeispiele sehen eine Familie von Stellungsschätzungsverfahren vor, die diese Informationen über Grenzen besser ausnutzen. Zusätzlich zu orientierten Oberflächenpunkten verwenden wir zwei andere geometrische Zeichenelemente, enthaltend orientierte Grenzpunkte (Punkte auf den Grenzen eines Objekts mit Richtungen) und Grenzliniensegmente.
  • Sorgfältig ausgewählte Zeichenelemente kodieren mehr Informationen kompakt und ergeben dadurch eine größere Genauigkeit für eine weite Klasse von industriellen Teilen und ermöglichen eine schnellere Berechnung.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung einer Roboteranordnungsvorrichtung, die die Ausführungsbeispiele der Erfindung anwenden kann;
  • 2A ist ein Blockschaltbild eines Verfahrens zum Bestimmen einer Stellung eines 3D-Objekts unter Verwendung eines auf einer Abstimmung basierenden Verfahrens gemäß Ausführungsbeispielen der Erfindung;
  • 2B ist ein Blockschaltbild von Einzelheiten des Verfahrens zum Bestimmen einer Stellung eines 3D-Objekts unter Verwendung eines auf einer Abstimmung basierenden Verfahrens;
  • 3A3D sind schematische Darstellungen von Paarmerkmalen für eine auf einer Abstimmung basierende Stellungsschätzung gemäß Ausführungsbeispielen der Erfindung; und
  • 4 ist eine schematische Darstellung einer Transformation zwischen einem Linienpaarmerkmal, das aus Sensordaten erhalten wurde, und einem Linienpaarmerkmal, das von dem Modell erhalten wurde, gemäß Ausführungsbeispielen der Erfindung.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • 1 zeigt ein System 100 zum Schätzen einer Stellung eines Objekts. Das System enthält einen 6-Achsen-Roboterarm 110 mit einem Greifer 120. Ein 3D-Sensor 130 ist an dem Arm angeordnet. Der Greifer nimmt Objekte 140 aus einem Behälter 150 in Abhängigkeit von ihrer Stellung 101 auf. Es ist festzustellen, dass der Behälter unterschiedliche Objekte enthalten kann.
  • Ein beispielhafter 3D-Sensor verwendet strukturiertes Licht, das von einem Infrarotlaser erzeugt wurde. Andere Sensoren sind auch möglich. Der Sensor erfasst 3D-”Punktwolken” 160 als Tiefenkarten von 640×480 Pixeln. Der 3D-Sensor ist mit Bezug auf den Roboterarm kalibriert, wodurch ein Ergreifen und Aufnehmen eines Objekts unter Verwendung der Stellung ermöglicht wird.
  • Die 3D-Punktwolken werden durch ein in einem Prozessor 170 durchgeführtes Verfahren verarbeitet. Der Prozessor kann einen Speicher und Eingabe-/Ausgabe-Schnittstellen enthalten, wie im Stand der Technik bekannt ist. Das Verfahren bestimmt die Stellung, die zu einer Steuervorrichtung 180 zurückgeführt werden kann, um den Arm für die Aufnahme des Objekts 140 zu lenken.
  • 2A zeigt ein Blockschaltbild für das Verfahren 200, das die folgenden Schritte enthält: 3D-Erfassen 210 der Szene, auf einer Abstimmung basierende Stellungsschätzung 220, eine Stellungsverfeinerung 230, und Ergreifen 240 des Objekts gemäß seiner Stellung.
  • Das System tastet den Behälter von Objekten unter Verwendung des SD-Sensors ab, um ein Objekt zu erfassen, und nimmt es gemäß der durch das Verfahren bestimmten Stellung auf. Unter der Voraussetzung eines 3D-CAD-Modells von jedem unterschiedlichen Objekt in dem Behälter führt das auf einer Abstimmung basierende Verfahren eine Erfassung und Stellungsschätzung des Objekts unter Verwendung einer abgetasteten 3D-Punktwolke 160 durch. Dieser Schritt ergibt mehrere grobe Stellungen. Das System wählt mehrere beste grobe Stellungen aus und verfeinert individuell die Stellungen unter Verwendung eines Verfahrens für einen iterativ nahesten Punkt (ICP).
  • Im Allgemeinen minimiert der ICP eine Differenz zwischen zwei 3D-Punktwolken. Der ICP wird häufig verwendet, um ein vollständiges 3D-Modell aus mehreren Teilabtastungen, die an verschiedenen Orten erfasst wurden, zu rekonstruieren und Roboter mit Bezug auf ein 3D-Umfeldmodell zu lokalisieren. Der Vorgang kann in Echtzeit durchgeführt werden durch iteratives Überprüfen der Transformation (Translation und Drehung), die erforderlich ist, um den Abstand zwischen den entsprechenden Punkten zu minimieren. Die Eingabe sind die beiden 3D-Punktwolken, eine anfängliche Schätzung der Transformation und ein Beendigungskriterium. Die Ausgabe ist die verfeinerte Transformation. Die primären Schritte enthalten das Finden entsprechender Punkte durch ein Nächster-Nachbar-Kriterium, das Schätzen von Transformationsparametern unter Verwendung eines mittleren quadratischen Fehlers als einer Kostenfunktion, das Transformieren der Punkte unter Verwendung der geschätzten Parameter, und das Iterieren.
  • Das ICP-Verfahren in unserem System bereitet das CAD-Modell des Objekts auf durch Verwendung der gegenwärtigen Stellungsschätzung und erzeugt eine 3D-Punktwolke für das Modell durch Abtasten der Oberfläche des aufbereiteten Modells. Dann bestimmt der ICP den nahesten 3D-Punkt in der abgetasteten Punktwolke für jeden 3D-Punkt in dem Modell und aktualisiert die Stellungsschätzung unter Verwendung der 3D-Punktentsprechungen.
  • Nach dem Konvergieren des ICP wird ein Registrierungsfehler als ein durchschnittlicher Abstand zwischen den entsprechenden 3D-Punkten in der abgetasteten Punktwolke und dem Modell gemessen. Der Registrierungsfehler kann hoch sein, wenn der ICP zu einer nichtkorrekten Stellung konvergiert oder wenn ein Teil des Objekts aufgrund von Okklusion von anderen Objekten fehlt. Daher verwendet, wenn der Registrierungsfehler hoch ist, unser System nicht die geschätzte Stellung zum Ergreifen. Zusätzlich zu dem Registrierungsfehler prüft unser System auch, ob das Objekt in der Stellung durch den Roboterarm erreichbar ist, um zu bestimmen, ob das Objekt aufgenommen werden kann.
  • Koordinatensysteme
  • Für den Zweck dieser Beschreibung werden drei Koordinatensysteme verwendet. Der Sensor wird in Form eines Sensor(Kamera)-Koordinatensystems C ausgedrückt. Das Modell des Objekts wird in Form eines Objektkoordinatensystems O ausgedrückt. Das Objekt in der Szene verwendet ein Weltkoordinatensystem W. Das Sensorkoordinatensytem S kann zu dem Weltkoordinatensystem W kalibriert werden, da im Allgemeinen der Sensor an einem bekannten Ort und mit bekannten Orientierungen in einer realen Welt ist.
  • Das Stellungsschätzverfahren bestimmt eine Transformation zwischen dem Sensorkoordinatensystem und dem Objektkoordinatensystem. Dann kann die Beziehung zwischen dem Sensor und dem Weltkoordinatensystem verwendet werden, um das Objekt in der Szene zu manipulieren.
  • Auf Abstimmung basierende Stellungsschätzung
  • Unsere Merkmale für eine Stellungsschätzung basieren auf Paaren von orientierten Punkten oder Linien, die wir als Paarmerkmale bezeichnen. Ein Paarmerkmal bestehend aus einem Paar von orientierten Oberflächenpunkten wird durch S2S bezeichnet, da wir den Merkmalsvektor asymmetrisch von einem orientierten Punkt (Bezugsgröße) zu einem anderen (bezogen) konstruieren. In gleicher Weise haben wir vier andere Paarmerkmale auf der Grundlage eines Paares von orientierten Grenzpunkten (B2B), ein Paar von Liniensegmenten (L2L), und ein heterogenes Paar enthaltend einen orientierten Oberflächenpunkt und einen orientierten Grenzpunkt (S2B und B2S), siehe 3A3C.
  • Punktpaarmerkmals-Deskriptoren FS2S, FB2B, FS2B und FB2S sind definiert durch die relative Position f1 und Orientierungen f2, f3 und f4 eines Paares von orientierten Punkten (m, n), wobei Punkte entweder Oberflächenpunkte mit Oberflächennormalen oder Grenzpunkte mit Richtungen anzeigen. In 3D ist der Linienpaarmerkmals-Deskriptor FL2L definiert durch den minimalen Abstand zwischen zwei unendlichen Linien f1, den spitzen Winkel zwischen zwei Linienrichtungen f2 und den maximalen Abstand zwischen den zwei Liniensegmenten f3.
  • Um die Stellung des Objekts zu schätzen, ist es erforderlich, Entsprechungen zwischen Paarmerkmalen, die von der Szene und dem Modell erhalten wurden, zu errichten. Wir verwenden verschiedene geometrische Randbedingungen von dem Paarmerkmal als seinen Deskriptor. Dann werden die Entsprechungen zwischen den Szene- und Modellpaarmerkmalen durch Anpassen ihrer Deskriptoren errichtet.
  • Paarmerkmale
  • S2S – Oberflächenpaarmerkmal:
  • Ein Oberflächenpaarmerkmal S2S ist definiert unter Verwendung von zwei Punkten auf der Objektoberfläche und ihrer Normalen. Unter der Voraussetzung eines orientierten Punkts von der Szene und eines entsprechenden Zeichenelements von dem Modell kann die 3D-Stellung bis zu einer planaren Drehungwiedergewonnen werden durch Ausrichten von Punktorten und ihren Normalen. Um die Drehungsmehrdeutigkeit zu lösen und die vollständige 6-DoF-Stellung wiederzugewinnen, sind zumindest Entsprechungen zwischen zwei Paaren von Szene- und Modell-Zeichenelementen erforderlich.
  • Es wird angenommen, dass {(mr, nr), (mi, ni)} das Paarmerkmal bezeichnen, wobei mr und mi der Bezugs- und der bezogene Punkt auf der Objektoberfläche sind, und nr bzw. ni die entsprechenden Normalen sind. Der assoziierte Deskriptor mit diesem Paarmerkmal ist
    Figure DE112012005350T5_0003
    wobei d der Vektor von dem Bezugspunkt zu dem bezogenen Punkt ist, und
    Figure DE112012005350T5_0004
    (v1, v2) ∈ [0, π] stellt den Winkel zwischen zwei Vektoren dar.
  • Somit stellt die erste Komponente des Deskriptors f1 = ||mi – mr||2 = ||d||2 dar, welcher der euklidische Abstand zwischen den beiden Oberflächenpunkten ist. Die zweite und die dritte Komponente f2 und f3 sind Winkel zwischen dem Vektor d und den Oberflächennormalen-Vektoren nr bzw. ni. Die letzte Komponente f4 ist der Winkel zwischen den beiden Normalvektoren. Das S25-Merkmal ist in 3A gezeigt. Wenn das Objekt einen weiten Bereich von Normalen überspannt, dann ergibt dieses Merkmal eine gute Beschreibung des Objekts.
  • B2B – Grenzpaarmerkmal:
  • Das S2S-Merkmal versagt, eine gute Beschreibung für Formen zu geben, die nicht einen weiten Bereich von Oberflächennormalen überspannen. Leider sind viele industrielle Teile, die während einer Robotermontage verwendet werden, planar und haben einen sehr kleinen Satz von Normalrichtungen. Zusätzlich ist es aufgrund von Störungen in den 3D-Daten schwierig, die Normalen in Bereichen hoher Krümmung auf der Oberfläche genau zu schätzen, wodurch das Problem weiter kompliziert wird.
  • Wir definieren ein neues Punktpaarmerkmal B2B auf der Grundlage von zwei Punkten auf Objektgrenzen. Im Gegensatz zu Oberflächenpunkten haben Grenzpunkte keine gut definierten Normalen. Für Grenzpunkte passen wir Liniensegmente an und verwenden die Richtungen der Liniensegmente für Orientierungen. Um die Liniensegmente auf Objektgrenzen herauszuziehen, bestimmen wir zuerst die Kanten in der Tiefenkarte unter Verwendung eines Canny-Kantendetektors. Die Kanten werden in einer Kantenkarte gespeichert. Punkte von der Kantenkarte werden zufällig abgetastet und 3D-Linien werden auf lokalen Bereichen, die um diese Punkte herum zentriert sind, unter Verwendung eines RANSAC-Vorgangs angepasst. Durch iteratives Anordnen und Entfernen von Liniensegmenten mit maximalen Innenliegenden werden alle Liniensegmente wiederhergestellt. Diese Liniensegmente werden weiterhin verfeinert durch Anwenden kleinster Quadrate auf die Innenliegenden. Nach der Linienanpassung tasten wir gleichförmig Grenzpunkte auf den 3D-Liniensegmenten ab.
  • In 3B zeigen die Punkte die Grenzpunkte auf zwei 3D-Liniensegmenten.
  • Dann wird der Grenzpaarmerkmals-Deskriptor FB2B
    Figure DE112012005350T5_0005
    definiert durch
    Figure DE112012005350T5_0006
  • Dieses Merkmal ist äquivalent FS2S mit der Ausnahme, dass n r und n i Richtungen der 3D-Linien sind. Es ist zu beachten, dass die Richtungen nicht eindeutig bestimmt sind. Daher berücksichtigen wir zwei mögliche Richtungen n und – n , wenn wir das B2B-Merkmal verwenden.
  • Objektgrenzen sind hoch informativ. Verglichen mit S2S, B2B wird eine prägnantere Modellierung erhalten, da es weniger Grenzpunkte im Vergleich zu Oberflächenpunkten gibt. Zusätzlich sind die Orientierungen von lokalen Liniensegmenten unempfindlicher gegenüber Störungen im Vergleich zu Oberflächennormalen.
  • S2B und B2S – Oberflächen-Grenz-Paarmerkmal:
  • Grenzpaarmerkmale sind assoziiert mit den Tiefenkanten des Objekts. Ein derartiges Merkmal, das nur von Grenzpunkten abhängt, braucht nicht die beste Wahl für ein Objekt mit hohen Oberflächenkrümmungen zu sein. Beispielsweise kann jeder Punkt auf der Oberfläche eines kugelförmigen Objekts potentiell eine Tiefenkante basierend auf der Stellung werden, während Tiefenkanten eines vielflächigen Objekts stabiler sind und immer auf ebenen Kreuzungen erscheinen.
  • Um gemeinschaftlich und effizient sowohl ebene als auch gekrümmte Objekte zu modellieren, sehen wird ein heterogenes Paarmerkmal vor, das durch Verwendung eines orientierten Oberflächenpunkts und eines orientierten Grenzpunkts definiert ist. Durch Berücksichtigung von orientierten Punkten auf der Oberfläche und der Grenze verringert dieses Merkmal eine Stellungsabtastung im Vergleich zu dem B2B-Merkmal.
  • Wie in 2C gezeigt ist, ist durch Auswahl eines orientierten Oberflächenpunkts als des Bezugspunkts und eines orientierten Grenzpunkts als des bezogenen Punkts der S2B-Merkmalsdeskriptor FS2B
    Figure DE112012005350T5_0007
    definiert durch
    Figure DE112012005350T5_0008
  • In gleicher Weise ist das B2S-Merkmal definiert durch Auswählen eines orientierten Grenzpunkts als des Bezugspunkts und eines orientierten Oberflächenpunkts als des bezogenen Punkts.
  • L2L – Linienpaarmerkmal:
  • Wie in 3D gezeigt ist, sehen wir auch ein Paarmerkmal L2L für 3D-Liniensegmente vor. Das Konstruieren eines Merkmals für zwei Liniensegmente ist geringfügig komplizierter als Konstruieren von einem für orientierte Punktpaare. Bei unserem Verfahren passen wir Linien unter Verwendung des RANSAC-Vorgangs an. Die Liniensegmente sind üblicherweise in mehrere kleinere Segmente aufgrund von Störungen, zufälliger Linienanpassung und Okklusionen unterteilt. Daher können die Endpunkte von Liniensegmenten, die als {lr 1, lr 2, li 1, li 2} bezeichnet werden, nicht zuverlässig bestimmt werden.
  • Somit betrachten wir zwei Punkte, die durch cr und ci bezeichnet werden, um unseren Merkmalsdeskriptor zu definieren. Wie in 2D bezeigt ist, sind cr und ci die nahesten Punkte auf jeder Linie mit Bezug auf einander. Der spitze Winkel zwischen zwei Liniensegmenten mit Richtungen v1 und v2 ist:
    Figure DE112012005350T5_0009
  • Unser L2L-Merkmalsdeskriptor, FL2L
    Figure DE112012005350T5_0010
    ist
    Figure DE112012005350T5_0011
  • Die erste Komponente ist der Abstand zwischen den nahesten Punkten cr und ci (d. h., der Abstand zwischen den beiden unendlichen Linien,) und die zweite Komponente ist der spitze Winkel zwischen den beiden Liniensegmenten. Die letzte Komponente stellt den maximalen Abstand zwischen den beiden Liniensegmenten dar. Dieser maximale Abstand kann der maximale von allen möglichen Abständen zwischen einem Endpunkt in einem Liniensegment und einem Endpunkt in einem anderen Liniensegment sein. Dieser maximale Abstand ist nützlich zum Entfernen falscher Gleichheitsprüfungen zwischen zwei Liniensegmenten mit einem ähnlichen Abstand und Winkel. Beispielsweise hat jedes Paar von koplanaren orthogonalen Linien denselben Abstand und Winkel. Jedoch ist, wie vorstehend beschrieben ist, dieser maximale Abstand nicht zuverlässig aufgrund des Brechens der Liniensegmente. Somit verwenden wir einen größeren Quantisierungsschritt für diese Komponente der Stellungsschätzung. Wir konstruieren nicht das L2L-Merkmal für Paare von parallelen Liniensegmenten, da solche Paare zu einer Mehrdeutigkeit der Stellung führen können.
  • Das Linienpaarmerkmal ergibt eine sehr effiziente Gleichheitsprüfung, da die Anzahl von Liniensegmenten geringer als die Anzahl von Oberflächenpunkten oder Grenzpunkten ist. Dieses Merkmal ist besonders effizient für vielflächige Objekte und Objekte mit langen Grenzliniensegmenten.
  • Bei einer praktischen Realisierung werden Oberflächenpunkte durch Abtasten und Unterabtasten des Tiefenbildes erhalten, 3D-Linien werden über unseren RANSAC-Vorgang bestimmt, der 3D-Liniensegmente anhand der 3D-Abtastung schätzt, und die Grenzpunkte werden dann erhalten durch Unterabtastung entlang der Liniensegmente.
  • Objektdarstellung
  • Wir erhalten zuerst geometrische Zeichenelemente
    Figure DE112012005350T5_0012
    orientierte Oberflächenpunkte für S2S, orientierte Grenzpunkte für B2B, sowohl orientierte Oberflächen- als auch Grenzpunkte für S2B und B2S, und 3D-Liniensegmente für L2L. Diese geometrischen Zeichenelemente können anhand von entweder 3D-Abtastdaten mit bekannter Kalibrierung zwischen dem Sensor und dem Objekt oder synthetischen Tiefendaten, die aus einem bekannten CAD-Modell aufbereitet wurden, bestimmt werden.
  • Mit diesen Zeichenelementen
    Figure DE112012005350T5_0013
    stellen wir jedes besondere Objekt 140 unter Verwendung eines Satzes von Modellpaarmerkmalen 201 S2S, B2B, S2B, B2S und L2L dar, wie in 2A gezeigt ist. Für effiziente Merkmalsanpassung speichern wir Modellpaarmerkmale in einer Hash-Tabelle
    Figure DE112012005350T5_0014
    Anfänglich vereinzeln wir die Merkmalspaare, bei denen die Abstände und die Winkel mit Schrittgrößen von Δd bzw. Δa quantisiert sind. Es ist wichtig, die Quantisierungspegel angemessen zu definieren. Die Verwendung von großen Schrittgrößen setzt die Diskriminierungsfähigkeit der Deskriptoren herab, während die Verwendung kleiner Schrittgrößen das Verfahren anfällig für Störungen macht. Im Folgenden werden vereinzelte Paarmerkmalsdeskriptoren als der Schlüssel für die Hash-Funktion verwendet und die Paarmerkmale werden demgemäß in Behälter eingeführt. Mit angemessenen Quantisierungsschritten werden ähnliche Paarmerkmale gruppiert, und die Gleichheitsprüfung und das Abstimmen können in einer konstanten Zeit erfolgen.
  • Das Gestalten einer Objektdarstellung kann ein Vorverarbeitungsschritt sein, der offline durchgeführt werden kann. 2A zeigt drei unterschiedliche Objekte, die zufällig in den Behälter für eine spätere Aufnahme vermischt sein können.
  • Bei einem Online-Prozess bestimmen wir Szenepaarmerkmale 202 anhand der abgetasteten 3D-Punktwolke 160 und vergleichen diese Merkmale mit dem Satz von Modellpaarmerkmalen. Die Einzelheiten dieses Verfahrens sind in 2B gezeigt.
  • Abstimmschema für S2S, B2B, S2B und B2S
  • Wie in 2B gezeigt ist, bestimmen wir nach dem Bestimmen der Paarmerkmale 202 anhand des Modells und dem Errichten der Hash-Tabelle
    Figure DE112012005350T5_0015
    die Stellung durch Berechnen von Transformationen für starre Körper zwischen einem Szenepaarmerkmal und einem Satz von entsprechenden Modellpaarmerkmalen. Um den Prozess des Findens der besten Stellungen effizient zu machen, verwenden wir ein Abstimmschema. Eine einfache Durchführung erfordert das Abstimmen in einem 6-DoF-Stellungsraum, welches ineffizient ist.
  • Stattdessen verwenden wir ein Abstimmschema, das den Abstimmraum auf einen 2D-Raum reduziert durch Verwendung von Zwischenkoordinatentransformationen. Zuerst wird ein Szenepunktpaar (sr, si) in der Hash-Tabelle
    Figure DE112012005350T5_0016
    gesucht, und dann wird ein entsprechendes Modellpunktpaar (mr, mi) gefunden. Dann werden Bezugspunkte der Paare in ein Zwischenkoordinatensystem transformiert, derart, dass ihre Positionen dem Ursprung des Koordinatensystems entsprechen und ihre Normalen mit der x-Achse ausgerichtet sind. Um das Paar vollständig auszurichten, werden die bezogenen Punkte mi und si ausgerichtet durch Drehen des Objektmodells um die x-Achse um einen Winkel α.
  • Die vorgenannte Transformation von (mr, mi) in (sr, si) wird parametrisiert durch das Paar des Bezugsmodellpunkts und des planaren Drehungswinkels (mr, α), und ist gegeben durch si = T –1 / s→gRx(α)Tm→gmi (10) worin Rx(α) die Drehung um die x-Achse um den Winkel α ist, Ts→g und Tm→g die Transformationen von dem Szenekoordinatensystem bzw. dem Modellkoordinatensystem in das Zwischenkoordinatensystem sind.
  • In der Abstimmphase wird ein Bezugspunkt sr in der Szene mit den anderen Punkten si in der Szene gepaart, und dann werden die Modellpaarmerkmale (mr, mi), die ähnlich den Szenepaarmerkmalen (sr, si) sind, auf der Grundlage ihrer Deskriptoren aus der Hash-Tabelle
    Figure DE112012005350T5_0017
    erhalten. Für jedes Paar wird der Drehwinkel α in dem Zwischenkoordinatensystem bestimmt, und dann werden Abstimmungen für das Paar (mr α) durchgeführt. Nach dem Abstimmen werden Elemente, die größer als ein vorbestimmter Schwellenwert sind, ausgewählt, aus denen Kandidatenstellungen (starre Transformationen zwischen den Modellkoordinaten und den Szenekoordinaten) 206 wie in Gleichung (10) berechnet werden. Dieser Vorgang wird wiederholt durch Auswählen verschiedener Bezugspunkte in der Szene. Dieses Abstimmschema ist anwendbar auf S2S-, B2B-, S2B- und B2S-Paarmerkmale.
  • Abstimmschema für L2L
  • Da das L2L-Merkmal durch ein Paar von Liniensegmenten definiert ist, verwenden wir für das L2L-Merkmal ein unterschiedliches Abstimmschema. Verglichen mit dem Abstimmschema für die Punktpaarmerkmale ist das Abstimmschema für das L2L-Merkmal schwieriger. Jedoch ist die Grundidee dieselbe: Wir richten zwei Paarmerkmale in einem Zwischenkoordinatensystem aus, wie in 4 gezeigt ist.
  • Wir transformieren zuerst die Linienpaare in ein Zwischenkoordinatensystem. Durch Ts→g wird die Bezugslinie von der Szene ls r mit der x-Achse ausgerichtet, und der Bezugsmittelpunkt om wird zu dem Ursprung bewegt. Die Bezugslinie von dem Modell lm r wird in gleicher Weise durch Tm→g transformiert. Danach werden der naheste Punkt der Bezugsszenenlinie Cs r und der der Bezugsmodelllinie cm r an dem Ursprung ausgerichtet durch Verschieben der Bezugslinien entlang der x-Achse. Die Differenz zwischen diesen Translationen wird als τ bezeichnet. Dann werden die bezogenen Linien ls i und lm i durch Drehen des Modells um einen Winkel α um die x-Achse ausgerichtet. Der Winkel α kann leicht durch ds und dm bestimmt werden.
  • Daher wird die Transformation von (lm r, lm i) in (ls r, ls i) über das Zwischenkoordinatensystem für das L2L-Abstimmschema durch (lm r, α, τ) parametrisiert und ist gegeben durch l s / i = T –1 / s→gTx(τ)Rx(α)Tm→gl m / i (11) worin Tx(τ) die Translation entlang der x-Achse ist.
  • Stellungsgruppierung
  • Bei dem vorbeschriebenen Abstimmschema werden die Kandidatenstellungen 206 für jedes Bezugszeichenelement (Punkt oder Linie) in der Szene erhalten. Da das Objekt durch mehrere Merkmalspaare modelliert ist, wird erwartet, mehrere Kandidatenstellungen über verschiedenen Bezugszeichenelementen, Punkten mr oder Linien lm r zu haben, stützend eine übereinstimmende Stellungshypothese. Daher vereinigen wir ähnliche Stellungen von verschiedenen Szenezeichenelementen.
  • Obgleich es mehrere Verfahren zum Gruppieren im 3D-Transformationsraum SE(3) für starre Körper gibt, wie eine mittlere Verschiebung von Lie-Gruppen, sind derartige Verfahren gewöhnlich rechnerisch unzweckmäßig für zeitempfindliche Anwendungen.
  • Wir verwenden eine Maßnahme der anhäufenden Gruppierung 207, die sehr effizient ist. Wir sortieren zuerst die Kandidatenstellungen in abnehmender Reihenfolge der Anzahl von Stimmen. Aus der Kandidatenstellung mit der größten Anzahl von Stimmen bilden wir eine neue Gruppe. Wenn die nächste Kandidatenstellung nahe einer der bestehenden Gruppen ist, dann wird die Kandidatenstellung zu der Gruppe hinzugefügt und die Gruppenmitte wird aktualisiert als der Durchschnitt der Kandidatenstellungen innerhalb der Gruppe. Wenn die nächste Kandidatenstellung nicht nahe bei einer der Gruppierungen ist, dann wird eine neue Gruppe erzeugt. Die Prüfung der Nähe erfolgt mit festen Schwellenwerten für die Translation und die Drehung. Die Abstandsberechnung und die Durchschnittsbildung für die Translation werden in dem euklidischen 3D-Raum durchgeführt, während diejenigen für die Drehung unter Verwendung einer Quaternion-Darstellung von Drehungsmatrizen durchgeführt werden.
  • Nach dem Gruppieren werden die Gruppen in abnehmender Reihenfolge der Gesamtzahl von Stimmen sortiert, wodurch eine Konfidenz der geschätzten Stellungen bestimmt wird. Die Gruppen mit den größten Stimmenzahlen entsprechen den besten Stellungen 208.
  • Wirkung der Erfindung
  • Ein Satz von Paarmerkmalen, verwendend orientierte Oberflächenpunkte, orientierte Grenzpunkte und Grenzliniensegmente, ist vorgesehen, um verschiedene Objekte zu modellieren. Wir verwenden die Paarmerkmale in einem Abstimmungsrahmenwerk für eine genaue und effiziente Stellungsschätzung.
  • Merkmale von Grenzen sind kompakter und informativer, wodurch sie zu einer höheren Genauigkeit und schnelleren Berechnung führen.
  • Ein gemäß den Ausführungsbeispielen der Erfindung realisiertes Behälteraufnahmesystem hat eine Aufnahmeerfolgsrate von mehr als 98%, sowie einen Stellungsschätzfehler von weniger als 0,3 mm und 0,3° für Translationen und Drehungen.

Claims (15)

  1. Verfahren zum Schätzen einer Stellung eines Objekts, aufweisend die Schritte: Definieren eines Satzes von Paarmerkmalen als Paare von geometrischen Zeichenelementen, wobei die geometrischen Zeichenelemente orientierte Oberflächenpunkte, orientierte Grenzpunkte und Grenzliniensegmente enthalten; Bestimmen von Modellpaarmerkmalen auf der Grundlage des Satzes von Paarmerkmalen für ein Modell des Objekts; Bestimmen von Szenepaarmerkmalen auf der Grundlage des Satzes von Paarmerkmalen aus durch einen 3D-Sensor erfassten Daten; und Prüfen der Gleichheit der Modellpaarmerkmale mit den Szenepaarmerkmalen, um die Stellung des Objekts zu schätzen, wobei die Schritte in einem Prozessor durchgeführt werden.
  2. Verfahren nach Anspruch 1, bei dem das Objekt eines aus mehreren verschiedenen Objekten ist, die zufällig mit anderen Objekten vermischt sind, und Modellpaarmerkmale für jedes Objekt vorhanden sind.
  3. Verfahren nach Anspruch 1, bei dem der 3D-Sensor an einem Roboterarm befestigt ist und der Roboterarm einen Greifer zum Aufnehmen des Objekts gemäß der Stellung enthält.
  4. Verfahren nach Anspruch 1, bei dem der 3D-Sensor von einem Infrarotlaser erzeugtes, strukturiertes Licht verwendet.
  5. Verfahren nach Anspruch 1, bei dem jedes Paarmerkmal unter Verwendung von zwei orientierten Oberflächenpunkten, zwei orientierten Grenzpunkten, einem orientierten Oberflächenpunkt und einem orientierten Grenzpunkt, und zwei Grenzliniensegmenten definiert ist.
  6. Verfahren nach Anspruch 1, bei dem jeder orientierte Oberflächenpunkt eine 3D-Position auf einer Oberfläche des Objekts und einen 3D-Normalvektor aufweist.
  7. Verfahren nach Anspruch 1, bei dem jeder orientierte Grenzpunkt eine 3D-Position auf einer Grenze des Objekts und einen 3D-Richtungsvektor aufweist.
  8. Verfahren nach Anspruch 7, bei dem der 3D-Richtungsvektor als eine Richtungstangente an die Grenze an der 3D-Position definiert ist.
  9. Verfahren nach Anspruch 1, bei dem jedes Grenzliniensegment ein Liniensegment ist, das an 3D-Punkte auf einer Grenze des Objekts angepasst ist.
  10. Verfahren nach Anspruch 1, bei dem ein Deskriptor anhand jedes Paarmerkmals bestimmt ist.
  11. Verfahren nach Anspruch 10, bei dem die Gleichheitsprüfung durch Vergleichen der Deskriptoren der Modellpaarmerkmale und der Deskriptoren der Szenepaarmerkmale durchgeführt wird.
  12. Verfahren nach Anspruch 11, weiterhin aufweisend: Vereinzeln der Deskriptoren für die Paarmerkmale; Speichern der vereinzelten Deskriptoren der Modellpaarmerkmale in einer Hash-Tabelle; und Durchführen der Gleichheitsprüfung unter Verwendung der Hash-Tabelle.
  13. Verfahren nach Anspruch 1, bei dem Kandidatenstellungen des Objekts auf der Grundlage einer Abstimmung über eine Zwischenkoordinatentransformation geschätzt werden.
  14. Verfahren nach Anspruch 13, weiterhin aufweisend: Gruppieren der Kandidatenstellungen.
  15. Verfahren nach Anspruch 1, weiterhin aufweisend: Verfeinern der Stellung unter Verwendung eines Vorgangs für einen iterativ nahesten Punkt.
DE112012005350.8T 2011-12-19 2012-12-04 Verfahren zum Schätzen der Stellung eines Objekts Active DE112012005350B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/329,493 US8908913B2 (en) 2011-12-19 2011-12-19 Voting-based pose estimation for 3D sensors
US13/329,493 2011-12-19
PCT/JP2012/081864 WO2013094441A1 (en) 2011-12-19 2012-12-04 Method for estimating pose of object

Publications (2)

Publication Number Publication Date
DE112012005350T5 true DE112012005350T5 (de) 2014-09-11
DE112012005350B4 DE112012005350B4 (de) 2022-03-31

Family

ID=47436153

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012005350.8T Active DE112012005350B4 (de) 2011-12-19 2012-12-04 Verfahren zum Schätzen der Stellung eines Objekts

Country Status (5)

Country Link
US (1) US8908913B2 (de)
JP (1) JP5726378B2 (de)
CN (1) CN104040590B (de)
DE (1) DE112012005350B4 (de)
WO (1) WO2013094441A1 (de)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201339A1 (en) * 2012-02-08 2013-08-08 Honeywell International Inc. System and method of optimal video camera placement and configuration
US9098913B2 (en) * 2012-05-11 2015-08-04 Cornell University Prediction of successful grasps by end of arm tooling
ITPR20120039A1 (it) * 2012-06-20 2012-09-19 Gevis S R L Dispositivo e metodo di misura di un pezzo
US8913825B2 (en) * 2012-07-16 2014-12-16 Mitsubishi Electric Research Laboratories, Inc. Specular edge extraction using multi-flash imaging
JP6370038B2 (ja) * 2013-02-07 2018-08-08 キヤノン株式会社 位置姿勢計測装置及び方法
US9305364B2 (en) * 2013-02-19 2016-04-05 Caterpillar Inc. Motion estimation systems and methods
US9280827B2 (en) * 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features
JP6245880B2 (ja) * 2013-07-31 2017-12-13 キヤノン株式会社 情報処理装置および情報処理手法、プログラム
US11412334B2 (en) * 2013-10-23 2022-08-09 Cochlear Limited Contralateral sound capture with respect to stimulation energy source
US10311595B2 (en) * 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US10043112B2 (en) * 2014-03-07 2018-08-07 Qualcomm Incorporated Photo management
CA2887261C (en) * 2014-04-11 2020-09-22 Axium Inc. Vision-assisted system and method for picking of rubber bales in a bin
ES2617307T3 (es) * 2014-04-14 2017-06-16 Softbank Robotics Europe Un procedimiento de localización de un robot en un plano de localización
WO2016040473A1 (en) * 2014-09-10 2016-03-17 Vangogh Imaging, Inc. Real-time dynamic three-dimensional adaptive object recognition and model reconstruction
US9747493B2 (en) 2014-09-23 2017-08-29 Keylemon Sa Face pose rectification method and apparatus
DE102015100983A1 (de) 2015-01-23 2016-07-28 Sick Ag Verfahren zur Lokalisierung von Greifpunkten von Objekten
US10515259B2 (en) * 2015-02-26 2019-12-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining 3D object poses and landmark points using surface patches
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
CN104899918B (zh) * 2015-05-14 2018-02-27 深圳大学 一种无人机的三维环境建模方法及系统
JP7195738B2 (ja) * 2015-06-02 2022-12-26 ライフ テクノロジーズ コーポレーション 構造化照明イメージングシステムを較正するためおよび構造化照明画像をキャプチャするためのシステムおよび方法
DE102015212932A1 (de) * 2015-07-10 2017-01-12 Kuka Roboter Gmbh Verfahren zum Steuern eines Roboters und/oder eines autonomen fahrerlosen Transportsystems
EP3185171B1 (de) * 2015-12-24 2020-03-04 Dassault Systèmes 3d-objektpositionierung mit deskriptor
US11044390B2 (en) * 2016-02-10 2021-06-22 Karl Storz Imaging, Inc. Imaging system for identifying a boundary between active and inactive portions of a digital image
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
CN107220580B (zh) * 2016-03-22 2022-08-09 敦泰电子有限公司 基于投票决策和最小二乘法的图像识别随机取样一致算法
US10371512B2 (en) * 2016-04-08 2019-08-06 Otis Elevator Company Method and system for multiple 3D sensor calibration
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10380762B2 (en) 2016-10-07 2019-08-13 Vangogh Imaging, Inc. Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data
US10116915B2 (en) * 2017-01-17 2018-10-30 Seiko Epson Corporation Cleaning of depth data by elimination of artifacts caused by shadows and parallax
DE102017201169A1 (de) 2017-01-25 2018-07-26 Siemens Aktiengesellschaft Rechnergestütztes Bildverarbeitungsverfahren
ES2828307T3 (es) * 2017-12-05 2021-05-26 Guima Palfinger S A S Sistema de detección para montaje en camiones
US10839585B2 (en) 2018-01-05 2020-11-17 Vangogh Imaging, Inc. 4D hologram: real-time remote avatar creation and animation control
US10957072B2 (en) 2018-02-21 2021-03-23 Cognex Corporation System and method for simultaneous consideration of edges and normals in image features by a vision system
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
US11080540B2 (en) 2018-03-20 2021-08-03 Vangogh Imaging, Inc. 3D vision processing using an IP block
US10810783B2 (en) 2018-04-03 2020-10-20 Vangogh Imaging, Inc. Dynamic real-time texture alignment for 3D models
CN108537805B (zh) * 2018-04-16 2021-09-21 中北大学 一种基于特征几何收益的目标识别方法
US11170224B2 (en) 2018-05-25 2021-11-09 Vangogh Imaging, Inc. Keyframe-based object scanning and tracking
US12002240B2 (en) * 2018-09-04 2024-06-04 Fastbrick Ip Pty Ltd. Vision system for a robotic machine
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN109903326B (zh) * 2019-02-28 2022-02-22 北京百度网讯科技有限公司 用于确定工程机械设备的旋转角度的方法和装置
JP7115376B2 (ja) * 2019-03-18 2022-08-09 日本電信電話株式会社 回転状態推定装置、方法及びプログラム
US11232633B2 (en) 2019-05-06 2022-01-25 Vangogh Imaging, Inc. 3D object capture and object reconstruction using edge cloud computing resources
US11170552B2 (en) 2019-05-06 2021-11-09 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time
CN110348310A (zh) * 2019-06-12 2019-10-18 西安工程大学 一种霍夫投票3d彩色点云识别方法
JP7316134B2 (ja) * 2019-07-22 2023-07-27 ファナック株式会社 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム
CN110992427B (zh) * 2019-12-19 2023-10-13 深圳市华汉伟业科技有限公司 一种形变物体的三维位姿估计方法及定位抓取系统
US11335063B2 (en) 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
KR20220132620A (ko) 2020-01-29 2022-09-30 인트린식 이노베이션 엘엘씨 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들
CN111453401B (zh) * 2020-03-25 2021-04-16 佛山缔乐视觉科技有限公司 工件的自动拾取方法和装置
US11420334B2 (en) * 2020-04-14 2022-08-23 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Candidate six dimensional pose hypothesis selection
DE102021109036A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte
CN113486470B (zh) * 2021-07-15 2023-05-23 西北工业大学 一种考虑非理想表面接触状态的装配体位姿计算方法
CN113853632B (zh) * 2021-08-18 2024-08-06 香港应用科技研究院有限公司 用于3d扫描之间全局配准的方法和系统
US12030191B2 (en) * 2021-10-28 2024-07-09 Ubkang (Qingdao) Technology Co., Ltd. Vision-guided picking and placing method, mobile robot and computer-readable storage medium
CN114676528B (zh) * 2022-04-07 2024-02-23 西北工业大学 基于组合基元法的非理想模型装配偏差算法
CN117237451B (zh) * 2023-09-15 2024-04-02 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366645B2 (en) * 2002-05-06 2008-04-29 Jezekiel Ben-Arie Method of recognition of human motion, vector sequences and speech
CA2535828C (en) 2003-08-15 2011-02-08 Scape A/S Computer-vision system for classification and spatial localization of bounded 3d-objects
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8077981B2 (en) * 2007-07-27 2011-12-13 Sportvision, Inc. Providing virtual inserts using image tracking with camera and position sensors
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung
JP5088278B2 (ja) * 2008-09-17 2012-12-05 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
CN101510308A (zh) * 2009-03-26 2009-08-19 山东理工大学 产品模型点云边界特征快速提取方法
EP2385483B1 (de) * 2010-05-07 2012-11-21 MVTec Software GmbH Erkennung und Haltungsbestimmung von 3D-Objekten in 3D-Szenen mittels Deskriptoren von Punktpaaren und der verallgemeinerten Hough Transformation
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8467596B2 (en) * 2011-08-30 2013-06-18 Seiko Epson Corporation Method and apparatus for object pose estimation
US9155675B2 (en) * 2011-10-12 2015-10-13 Board Of Trustees Of The University Of Arkansas Portable robotic device

Also Published As

Publication number Publication date
CN104040590A (zh) 2014-09-10
JP2014528057A (ja) 2014-10-23
CN104040590B (zh) 2017-02-22
DE112012005350B4 (de) 2022-03-31
US20130156262A1 (en) 2013-06-20
US8908913B2 (en) 2014-12-09
WO2013094441A1 (en) 2013-06-27
JP5726378B2 (ja) 2015-05-27

Similar Documents

Publication Publication Date Title
DE112012005350B4 (de) Verfahren zum Schätzen der Stellung eines Objekts
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE112010004767B4 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE69922183T2 (de) Gesichtserkennung aus videobildern
EP2927844A1 (de) Positions- und lagebestimmung von 3d objekten
Kropatsch et al. Digital image analysis: selected techniques and applications
DE112018001050T5 (de) System und verfahren zur virtuell erweiterten visuellen gleichzeitigen lokalisierung und kartographierung
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE112013003214T5 (de) Verfahren zum Registrieren von Daten
DE112011100652T5 (de) Dreidimensionale messvorrichtung, verarbei- tungsverfahren und nichtflüchtiges computer- lesbares speichermedium
DE102015113434A1 (de) Verfahren zur Objektlokalisierung und Posenschätzung für ein interessierendes Objekt
DE102015101710A1 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
DE102013216902A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE102016003294A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE102020118635A1 (de) 3D-Datenerzeugungsvorrichtung und Robotersteuersystem
DE102020206387B4 (de) Verfahren und computersystem zur verarbeitung von kandidatenkanten
EP3685303A1 (de) Verfahren zur erkennung einer objektinstanz und/oder orientierung eines objekts
DE102005003605A1 (de) Vorwissen, Niveaumengenrepräsentationen und visuelle Gruppierung
DE112014006911T5 (de) Verfahren und System zum Scannen eines Objekts unter Verwendung eines RGB-D-Sensors
DE102015200260A1 (de) Verfahren zum Erstellen eines Deskriptors für ein Szenenbild
DE102015115789A1 (de) Doppler-basierte Segmentierung und optischer Fluss in Radarbildern
DE102015115786A1 (de) Doppler-basierte Segmentierung und optischer Fluss in Radarbildern
DE102020131267A1 (de) Kalibrieren von kameras und berechnen von punktprojektionen unter verwendung eines eine axiale blickpunktverschiebung aufweisenden nicht zentralen kameramodells
Boughorbel et al. Laser ranging and video imaging for bin picking
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06T0007000000

Ipc: G06T0007700000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final