AT519447B1 - Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells - Google Patents

Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells Download PDF

Info

Publication number
AT519447B1
AT519447B1 ATA50199/2017A AT501992017A AT519447B1 AT 519447 B1 AT519447 B1 AT 519447B1 AT 501992017 A AT501992017 A AT 501992017A AT 519447 B1 AT519447 B1 AT 519447B1
Authority
AT
Austria
Prior art keywords
orientation
data
depth
sensor
depth sensor
Prior art date
Application number
ATA50199/2017A
Other languages
English (en)
Other versions
AT519447A4 (de
Inventor
Heindl Christoph
Ebenhofer Gerhard
Pönitz Thomas
Bauer Harald
Original Assignee
Profactor Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Profactor Gmbh filed Critical Profactor Gmbh
Priority to ATA50199/2017A priority Critical patent/AT519447B1/de
Application granted granted Critical
Publication of AT519447A4 publication Critical patent/AT519447A4/de
Publication of AT519447B1 publication Critical patent/AT519447B1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird eine Vorrichtung und ein Verfahren zum Erfassen eines der Oberfläche eines Objektes (1) entsprechenden dreidimensionalen Modells (7) beschrieben, umfassend einen Tiefensensor (2) und eine Auswerteeinheit (3) mit einer Empfangseinrichtung für Tiefendaten des Tiefensensors (2). Um sich aufakkumulierende Fehler bei dennoch einfacher Handhabung zu vermeiden, wird vorgeschlagen, dass der Tiefensensor (2) starr mit einem mit wenigstens einer Basisstation (5) zusammenwirkenden Positions- und Orientierungsgeber (4) verbunden ist, und dass die Auswerteeinheit (3) eine Empfangseinrichtung für die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) sowie eine Transformationseinheit (6) zur Transformation der Tiefendaten des Tiefensensors (2) anhand der Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) zu einem Modell (7) in einem Weltkoordinatensystem (8) oder im Koordinatensystem (9) der wenigstens einen Basisstation (5) aufweist.

Description

Beschreibung [0001] Die Erfindung bezieht sich auf eine Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells, umfassend einen Tiefensensor und eine Auswerteeinheit mit einer Empfangseinrichtung für Tiefendaten des Tiefensensors sowie auf ein Verfahren zum Erfassen dieses Modells.
[0002] Zur Erstellung von virtuellen Modellen realer Objekte sind handgeführte Tiefensensoren bekannt, die vom realen Objekt aus unterschiedlichen Perspektiven Tiefendaten erfassen. Solche Tiefensensoren können beispielsweise Stereokamerasysteme oder Laserscanner sein. Durch Ermittlung übereinstimmender Tiefendaten über mehrere Aufnahmen hinweg kann die relative Position und Orientierung des Tiefensensors ermittelt und damit die Tiefendaten der einzelnen Aufnahmen einer der Oberfläche eines Objektes entsprechenden dreidimensionalen Punktwolke und schließlich zu einem Modell des realen Objektes zusammengesetzt werden. Nachteilig ist an diesem Verfahren allerdings, dass die Ermittlung übereinstimmender Tiefendaten sehr rechenintensiv ist und sich darüber hinaus Fehler bei der Bestimmung der relativen Position und Orientierung des Tiefensensors über mehrere Aufnahmen hinweg akkumulieren, sodass die Qualität des virtuellen Modelles erheblich beeinträchtigt werden kann. Zwar kann eine globale Betrachtung aller Aufnahmen diese akkumulierten Fehler minimieren, das entsprechende Verfahren ist aber mit einem noch höheren Rechenaufwand verbunden, weil die Berechnung mehrfach mit unterschiedlichen Gruppen von Aufnahmen und zugehörigen Tiefendaten durchgeführt werden muss.
[0003] Der Erfindung liegt somit die Aufgabe zugrunde, eine Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells so auszugestalten, dass sich auf akkumulierende Fehler bei dennoch einfacher Handhabung vermieden werden können.
[0004] Die Erfindung löst die gestellte Aufgabe dadurch, dass der Tiefensensor starr mit einem mit wenigstens einer Basisstation zusammenwirkenden Positions- und Orientierungsgeber verbunden ist, und dass die Auswerteeinheit eine Empfangseinrichtung für die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers sowie eine Transformationseinheit zur Transformation der Tiefendaten des Tiefensensors anhand der Positions- und Orientierungsdaten des Positions- und Orientierungsgebers zu einem Modell in einem Weltkoordinatensystem oder im Koordinatensystem der wenigstens einen Basisstation aufweist. Für die Erfindung ist es dabei nicht wesentlich, ob der Positions- und Orientierungsgeber aktiv oder passiv ausgeführt ist bzw. ob die Positions- und Orientierungsdaten vom Positions- und Orientierungsgeber oder von dessen Basisstation an die Auswerteeinheit übertragen werden.
[0005] Zufolge der getrennten Positions- und Orientierungsbestimmung des Positions- und Orientierungsgebers kann die Rechenzeit für die Modellbildung reduziert und dennoch aufgrund der Vermeidung von sich akkumulierenden Fehlern eine höhere Modellgenauigkeit erreicht werden, weil aufgrund der starren Verbindung zwischen Positions- und Orientierungsgeber und Tiefensensor auf die tatsächliche Position und Orientierung des Tiefensensors rückgeschlossen werden kann, ohne dass hierfür die Tiefendaten des Tiefensensors berücksichtigt werden müssten.
[0006] Die Genauigkeit der erfindungsgemäßen Vorrichtung kann weiter erhöht werden, wenn der Tiefensensor weiters starr mit einer inertialen Messeinheit verbunden ist und die Auswerteeinheit eine Empfangseinrichtung für die Messdaten dieser intertialen Messeinheit aufweist. Zufolge dieser Maßnahme kann im Falle eines Ausfalles oder einer Störung des Orientierungsgebers, weil beispielsweise die Verbindung zur Basisstation unterbrochen ist, auf die Messwerte der inertialen Messeinheit zur Positionsbestimmung zurückgegriffen werden.
[0007] Erfindungsgemäß erfolgt das Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells dadurch, dass das Objekt mit Hilfe eines Tiefensensors aus unterschiedlichen Aufnahmepositionen abgetastet, die Tiefendaten des Tiefensensors für jede Aufnahmeposition und jeden Aufnahmezeitpunkt in das Koordinatensystem eines mit dem Tiefensensor starr verbundenen und mit wenigstens einer Basisstation zusammenwirkenden Positions- und Orientierungsgebers transformiert, anhand der Positions- und Orientierungsdaten des Positions- und Orientierungsgebers zum Aufnahmezeitpunkt in das Koordinatensystem der wenigstens einen Basisstation transformiert und dort zu einem Modell zusammen gesetzt werden. Das Modell kann dabei in einfacher Weise eine dreidimensionale Punktwolke bilden oder durch für den Fachmann bekannte morphologische Operationen zu Oberflächen und weiter zu einem dreidimensionalen Körper zusammengesetzt werden. Um einfache Verarbeitungsbedingungen zu schaffen, können darüber hinaus die einzelnen Transformationen zu einer kinematischen Kette und damit zu einer einzelnen Transformation zusammengeführt werden. Dies gilt selbstverständlich auch für die im Folgenden beschriebenen Ausführungsformen.
[0008] Um die Position und die Orientierung des Objektes und der wenigstens einen Basisstation frei wählen zu können, wird vorgeschlagen, dass die in das Koordinatensystem der wenigstens einen Basisstation transformierten Tiefendaten in ein in Bezug auf die Basisstation gewähltes Weltkoordinatensystem transformiert werden, bevor sie dort zu einem Modell zusammengesetzt werden.
[0009] Damit auf besonders einfache Weise die Transformation der Tiefendaten des Tiefensensors in das Koordinatensystem des mit dem Tiefensensor starr verbundenen Positions- und Orientierungsgebers ermittelt werden kann, kann mit dem Tiefensensor ein bekanntes Kalibrierobjekt aus mehreren Perspektiven zu mehreren Aufnahmezeitpunkt erfasst und daraus die Positionen des Tiefensensors in Bezug auf das Kalibrierobjekt bestimmt werden, während die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers zu den jeweiligen Aufnahmezeitpunkt erfasst werden. Die über alle Aufnahmen gleichbleibende Transformation der Tiefendaten des Tiefensensors in das Koordinatensystem des mit dem Tiefensensor starr verbundenen Positions- und Orientierungsgebers kann danach oder schritthaltend mit eingehenden Messdaten durch Optimierungsverfahren so bestimmt werden, dass das Kalibrierobjekt im Koordinatensystem der wenigstens einen Basisstation oder des gewählten Weltkoordinatensystems für jeden Aufnahmezeitpunkt die gleiche Orientierung aufweist und sich an der gleichen Position befindet. Für den Fall, dass die Transformation der Tiefendaten des Tiefensensors in das Koordinatensystem des mit dem Tiefensensor starr verbundenen Positions- und Orientierungsgebers durch Optimierungsverfahren so bestimmt wird, dass das Kalibrierobjekt im gewählten Weltkoordinatensystems für jeden Aufnahmezeitpunkt die gleiche Orientierung aufweist und sich an der gleichen Position befindet, kann über das Optimierungsverfahren nicht nur die Transformation der Tiefendaten des Tiefensensors in das Koordinatensystem des mit dem Tiefensensor starr verbundenen Positions- und Orientierungsgebers, sondern auch die Transformation der Tiefendaten aus dem Koordinatensystem der wenigstens einen Basisstation in das gewählte Weltkoordinatensystem geschätzt werden, wenn letztere nicht auf anderem Wege vorgegeben wird. Falls wie oben beschrieben eine inertiale Messeinheit zum Einsatz kommt, können auch deren Messwerte für das beschriebene Optimierungsverfahren herangezogen werden.
[0010] Um die Genauigkeit des dreidimensionalen Modells des Objektes weiter zu verbessern, können aus den Tiefendaten des Tiefensensors mehrerer Aufnahmen übereinstimmende Muster erkannt und aus der relativen Lage dieser Muster zueinander die Position und Orientierung des Tiefensensors in Bezug auf das Objekt bestimmt werden. Die Bestimmung solcher Muster aus Bilddaten oder Tiefendaten sowie die Bestimmung von Position und Orientierung des Tiefensensors aus solchen übereinstimmenden Mustern mehrere Aufnahmen unterschiedlicher Perspektive ist für den Fachmann aus dem Stand der Technik hinlänglich bekannt, sodass an dieser Stelle darauf nicht weiter eingegangen wird.
[0011] Die auf diese Weise zusätzlich ermittelten Positions- und Orientierungsdaten des Tiefensensors können dazu genutzt werden, die Transformation der Tiefendaten des Tiefensensors in das Koordinatensystem des mit dem Tiefensensor starr verbundenen Positions- und Orientierungsgebers durch Minimierung der Abweichungen zwischen den Positions- und Orientierungsdaten des Positions- und Orientierungsgebers und den zugehörigen Positions- und Orientierungsdaten des Tiefensensors zu optimieren. Weiters können hierfür auch die Messwerte der oben beschrieben inertialen Messeinheit herangezogen werden.
[0012] Das zusätzliche Bestimmen der Positions- und Orientierungsdaten des Tiefensensors hat aber auch den Vorteil, dass bei einem Ausfall des Positions- und Orientierungsgebers die Positions- und Orientierungsdaten des Tiefensensors für die Transformation der Tiefendaten in das Koordinatensystem der wenigstens einen Basisstation oder in das gewählte Weltkoordinatensystems herangezogen werden können, wobei im Fehlerfall die Positions- und Orientierungsdaten des Tiefensensors anhand der wie oben beschrieben ermittelten, bekannten Transformation in das Koordinatensystem des ausgefallenen Positions- und Orientierungsgebers überführt werden können, sodass sich am erfindungsgemäßen Verfahrensablauf auch im Fehlerfall des Positions- und Orientierungsgebers keine Änderungen ergeben. Zusätzlich oder alternativ können auch die Messwerte der oben beschrieben inertialen Messeinheit für die Transformation in das Koordinatensystem des ausgefallenen Positions- und Orientierungsgebers herangezogen werden. Ausfälle des Positions- und Orientierungsgebers sind beispielsweise dann zu erwarten, wenn bei einem auf einem optischen System beruhenden Positions- und Orientierungsgeber die Sichtverbindung abgedeckt wird.
[0013] Um mögliche Störungen in den ermittelten Positions- und Orientierungsdaten zu entfernen und darüber hinaus auch Schätzungen für nicht beobachtete bzw. beobachtbare Positionsund Orientierungsdaten zu erhalten, wird vorgeschlagen, dass die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers und/oder des Tiefensensors vor deren Verarbeitung einem probabilistischen Filter zur Zustandsschätzung zugeführt werden und nicht beobachtbare Positions- und Orientierungsdaten durch Schätzungen des probabilistischen Filters zur Zustandsschätzung ersetzt werden. Als solcher Filter kann beispielsweise ein Kalman-Filter zum Einsatz kommen.
[0014] Wird der erfindungsgemäße Sensor handgeführt, können Fehlerhafte Messwerte durch Unschärfe dadurch vermieden werden, dass die Beschleunigungsdaten des probabilistischen Filters zur Zustandsschätzung zu den einzelnen Aufnahmezeitpunkten überwacht und die dem jeweiligen Aufnahmezeitpunkt entsprechenden Tiefendaten verworfen werden, wenn die Beschleunigungsdaten einen vorgegebenen Grenzwert überschreiten.
[0015] In der Zeichnung ist der Erfindungsgegenstand beispielsweise dargestellt, und zwar in einer schematischen Darstellung der erfindungsgemäßen Vorrichtung.
[0016] Eine erfindungsgemäße Vorrichtung zum Erfassen eines der Oberfläche eines Objektes 1 entsprechenden dreidimensionalen Modells 7 umfasst einen Tiefensensor 2 und eine Auswerteeinheit 3 mit einer nicht näher dargestellten Empfangseinrichtung für Tiefendaten des Tiefensensors 2. Der Tiefensensor 2 ist starr mit einem Positions- und Orientierungsgeber 4 verbunden, der mit wenigstens einer Basisstation 5 zusammenwirkt. Für die Erfindung ist es dabei nicht wesentlich, ob der Positions- und Orientierungsgeber aktiv oder passiv ausgeführt ist bzw. ob die Positions- und Orientierungsdaten vom Positions- und Orientierungsgeber 4 oder von dessen Basisstation 5 ausgegeben werden. Im dargestellten Ausführungsbeispiel ist der Positions- und Orientierungsgeber 4 aktiv ausgeführt und übermittelt die Positions- und Orientierungsdaten direkt an die Auswerteeinheit 3.
[0017] Die Auswertungseinheit 3 umfasst eine Transformationseinheit 6 zur Transformation der Tiefendaten des Tiefensensors 2 anhand der Positions- und Orientierungsdaten des Positionsund Orientierungsgebers 4 zu einem Modell 7 in ein Weltkoordinatensystem 8 oder in das Koordinatensystem 9 der wenigstens einen Basisstation 5.
[0018] Während das Objekt 1 mit Hilfe des Tiefensensors 2 aus unterschiedlichen Aufnahmepositionen abgetastet wird, werden die Tiefendaten des Tiefensensors 2 für jede Aufnahmeposition und jeden Aufnahmezeitpunkt an die Transformationseinheit 6 übermittelt und dort anhand einer vorgegebenen Transformation 10, deren Herleitung oben näher beschrieben ist, zunächst in das Koordinatensystem 11 des mit dem Tiefensensor 2 starr verbundenen Positi-ons- und Orientierungsgebers transformiert. Danach werden die Tiefendaten weiter anhand einer auf den Positions- und Orientierungsdaten des Positions- und Orientierungsgebers 4 zum Aufnahmezeitpunkt beruhenden Transformation 12 in das Koordinatensystem 9 der wenigstens einen Basisstation 5 des Positions- und Orientierungsgebers 4 überführt und in diesem Koordinatensystem 9 zu einem Modell 7 zusammengesetzt.
[0019] Alternativ und um die Position und die Orientierung des Objektes und der wenigstens einen Basisstation 5 in einem Weltkoordinatensystem 8 frei wählen zu können, können die in das Koordinatensystem 9 der wenigstens einen Basisstation 5 transformierten Tiefendaten über eine vorgegebene Transformation 13 in ein in Bezug auf die Basisstation 5 gewähltes Weltkoordinatensystem 8 transformiert werden, bevor sie in diesem Koordinatensystem 8 zu einem Modell 7 zusammengesetzt werden.
[0020] Um aus den Positions- und Orientierungsdaten des Positions- und Orientierungsgebers 4 mögliche Störungen zu entfernen und darüber hinaus auch Schätzungen für nicht beobachtete bzw. beobachtbare Positions- und Orientierungsdaten zu erhalten, werden die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers 4 einem probabilistischen Filter zur Zustandsschätzung 14, beispielsweise einem Kalman-Filter zugeführt, bevor Sie an die Transformationseinheit 6 weitergeleitet werden.
[0021] Um die Genauigkeit der Rekonstruktion weiter zu verbessern und eine Ausfallsicherheit gegenüber Störungen des Positions- und Orientierungsgebers zu erreichen, können aus den Tiefendaten des Tiefensensors 2 mehrerer Aufnahmen übereinstimmende Muster erkannt und aus der relativen Lage dieser Muster zueinander die Position und Orientierung des Tiefensensors 2 in Bezug auf das Objekt 1 bestimmt werden. Zu diesem Zweck ist eine Einheit 15 zur Mustererkennung und zur Ableitung von Positions- und Orientierungsdaten aus übereinstimmenden Mustern mehrerer Aufnahmen vorgesehen, deren ermittelte Positions- und Orientierungsdaten einem zweiten probabilistischen Filter zur Zustandsschätzung 16, beispielsweise ebenfalls ein Kalman-Filter zugeführt werden, um daraus Störungen zu entfernen und etwaige nicht beobachtbare Positions- und Orientierungsdaten zu schätzen.
[0022] Die ermittelten Beschleunigungsdaten der probabilistischen Filter zur Zustandsschätzung 14, 16 zu den einzelnen Aufnahmezeitpunkten können überwacht und die dem jeweiligen Aufnahmezeitpunkt entsprechenden Tiefendaten verworfen werden, wenn die Beschleunigungsdaten einen vorgegebenen Grenzwert überschreiten. Ist die Einheit 15 aktiv, so kann darüber hinaus eine Umschalteinrichtung 17 vorgesehen werden, die bei den vorgegebenen Grenzwert überschreitenden Beschleunigungsdaten oder in einer anderen Hinsicht unplausiblen Ausgangswerten eines der probabilistischen Filter zur Zustandsschätzung 14, 16 auf den Ausgang des jeweils anderen probabilistischen Filters zur Zustandsschätzung 16, 14 umschaltet.

Claims (10)

  1. Patentansprüche
    1. Vorrichtung zum Erfassen eines der Oberfläche eines Objektes (1) entsprechenden dreidimensionalen Modells (7), umfassend einen Tiefensensor (2) und eine Auswerteeinheit (3) mit einer Empfangseinrichtung für Tiefendaten des Tiefensensors (2), dadurch gekennzeichnet, dass der Tiefensensor (2) starr mit einem mit wenigstens einer Basisstation (5) zusammenwirkenden Positions- und Orientierungsgeber (4) verbunden ist, und dass die Auswerteeinheit (3) eine Empfangseinrichtung für die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) sowie eine Transformationseinheit (6) zur Transformation der Tiefendaten des Tiefensensors (2) anhand der Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) zu einem Modell (7) in einem Weltkoordinatensystem (8) oder im Koordinatensystem (9) der wenigstens einen Basisstation (5) aufweist.
  2. 2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Tiefensensor (2) weiters starr mit einer inertialen Messeinheit verbunden ist und dass die Auswerteeinheit (3) eine Empfangseinrichtung für die Messaten dieser intertialen Messeinheit aufweist.
  3. 3. Verfahren zum Erfassen eines der Oberfläche eines Objektes (1) entsprechenden dreidimensionalen Modells (7), wobei das Objekt (1) mit Hilfe eines Tiefensensors (2) aus unterschiedlichen Aufnahmepositionen abgetastet wird, dadurch gekennzeichnet, dass die Tiefendaten des Tiefensensors (2) für jede Aufnahmeposition und jeden Aufnahmezeitpunkt in das Koordinatensystem (11) eines mit dem Tiefensensor (2) starr verbundenen und mit wenigstens einer Basisstation (5) zusammenwirkenden Positions- und Orientierungsgebers (4) transformiert, anhand der Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) zum Aufnahmezeitpunkt in das Koordinatensystem (9) der wenigstens einen Basisstation (5) transformiert und dort zu einem Modell (7) zusammengesetzt werden.
  4. 4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die in das Koordinatensystem (9) der wenigstens einen Basisstation (5) transformierten Tiefendaten in ein in Bezug auf die Basisstation (5) gewähltes Weltkoordinatensystem (8) transformiert werden, bevor sie dort zu einem Modell (7) zusammengesetzt werden.
  5. 5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die Transformation (10) der Tiefendaten des Tiefensensors (2) in das Koordinatensystem (11) des mit dem Tiefensensor (2) starr verbundenen Positions- und Orientierungsgebers (4) dadurch ermittelt wird, dass mit dem Tiefensensor (2) ein bekanntes Kalibrierobjekt aus mehreren Perspektiven zu mehreren Aufnahmezeitpunkten erfasst und daraus die Positionen des Tiefensensors (2) in Bezug auf das Kalibrierobjekt bestimmt werden, dass die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) zu den jeweiligen Aufnahmezeitpunkten erfasst und dass die über alle Aufnahmen gleichbleibende Transformation (10) der Tiefendaten des Tiefensensors (2) in das Koordinatensystem (11) des mit dem Tiefensensor (2) starr verbundenen Positions- und Orientierungsgebers (4) durch Optimierungsverfahren so bestimmt wird, dass das Kalibrierobjekt im Koordinatensystem (9) der wenigstens einen Basisstation (5) oder des gewählten Weltkoordinatensystems (8) für jeden Aufnahmezeitpunkt die gleiche Orientierung aufweist und sich an der gleichen Position befindet.
  6. 6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass aus den Tiefendaten des Tiefensensors (2) mehrerer Aufnahmen übereinstimmende Muster erkannt und aus der relativen Lage dieser Muster zueinander die Position und Orientierung des Tiefensensors (2) in Bezug auf das Objekt (1) bestimmt werden.
  7. 7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Transformation (10) der Tiefendaten des Tiefensensors (2) in das Koordinatensystem (11) des mit dem Tiefensensor (2) starr verbundenen Positions- und Orientierungsgebers (4) durch Minimierung der Abweichungen zwischen den Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) und den zugehörigen Positions- und Orientierungsdaten des Tiefensensors (2) optimiert wird.
  8. 8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass bei einem Ausfall des Positions- und Orientierungsgebers (4) die Positions- und Orientierungsdaten des Tiefensensors (2) für die Transformation der Tiefendaten in das Koordinatensystem (9) der wenigstens einen Basisstation (5) oder in das gewählte Weltkoordinatensystems (8) herangezogen werden.
  9. 9. Verfahren nach einem der Ansprüche 3 bis 8, dadurch gekennzeichnet, dass die Positions- und Orientierungsdaten des Positions- und Orientierungsgebers (4) und/oder des Tiefensensors (2) vor deren Verarbeitung einem probabilistischen Filter zur Zustandsschätzung (14, 16) zugeführt werden und nicht beobachtbare Positions- und Orientierungsdaten durch Schätzungen des probabilistischen Filters zur Zustandsschätzung (14, 16) ersetzt werden.
  10. 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die Beschleunigungsdaten des probabilistischen Filters zur Zustandsschätzung (14, 16) zu den einzelnen Aufnahmezeitpunkten überwacht und die dem jeweiligen Aufnahmezeitpunkt entsprechenden Tiefendaten verworfen werden, wenn die Beschleunigungsdaten einen vorgegebenen Grenzwert überschreiten. Hierzu 1 Blatt Zeichnungen
ATA50199/2017A 2017-03-13 2017-03-13 Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells AT519447B1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ATA50199/2017A AT519447B1 (de) 2017-03-13 2017-03-13 Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50199/2017A AT519447B1 (de) 2017-03-13 2017-03-13 Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells

Publications (2)

Publication Number Publication Date
AT519447A4 AT519447A4 (de) 2018-07-15
AT519447B1 true AT519447B1 (de) 2018-07-15

Family

ID=62873097

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50199/2017A AT519447B1 (de) 2017-03-13 2017-03-13 Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells

Country Status (1)

Country Link
AT (1) AT519447B1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012112401A2 (en) * 2011-02-17 2012-08-23 Microsoft Corporation Providing an interactive experience using a 3d depth camera and a 3d projector
US20130321346A1 (en) * 2012-05-31 2013-12-05 Opportunity Partners Inc. Interactive Surface
US20150145966A1 (en) * 2013-11-27 2015-05-28 Children's National Medical Center 3d corrected imaging

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012112401A2 (en) * 2011-02-17 2012-08-23 Microsoft Corporation Providing an interactive experience using a 3d depth camera and a 3d projector
US20130321346A1 (en) * 2012-05-31 2013-12-05 Opportunity Partners Inc. Interactive Surface
US20150145966A1 (en) * 2013-11-27 2015-05-28 Children's National Medical Center 3d corrected imaging

Also Published As

Publication number Publication date
AT519447A4 (de) 2018-07-15

Similar Documents

Publication Publication Date Title
DE102017111885B4 (de) Verfahren und System zum Überwachen einer Maschine
EP1412774B1 (de) Verfahren zur zeitlichen synchronisation mehrerer fahrzeugsensoren
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
EP3650740B1 (de) Sicherheitssystem und verfahren zum überwachen einer maschine
DE102016003316A1 (de) Robotersteuerung mit roboterstörungsdiagnose
DE112017002639T5 (de) Robotersteuerungsvorrichtung
DE102008052954A1 (de) Verfahren zur Schwingungsunterdrückung und Vorrichtung hierfür
EP2234081A2 (de) Verfahren zur Herstellung einer bekannten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung
DE102014211175A1 (de) Verfahren und System zur Initialisierung eines Sensorfusionssystems
DE102018201692A1 (de) Verfahren zu einer indirekten Abstandsmessung
WO2017103093A1 (de) Verfahren zum überwachen von mindestens zwei redundanten sensoren
DE102014211180A1 (de) Verfahren und System zur verbesserten Erkennung und/oder Kompensation von Fehlerwerten
DE4100501A1 (de) Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen
DE102014211178A1 (de) Verfahren und System zur Korrektur von Messdaten eines ersten Sensorsystems
DE102015202230A1 (de) Fusionierte Eigenbewegungsberechnung für ein Fahrzeug
AT519447B1 (de) Vorrichtung zum Erfassen eines der Oberfläche eines Objektes entsprechenden dreidimensionalen Modells
WO2018197089A1 (de) Verfahren und vorrichtung zum rechnergestützten erzeugen einer virtuellen zugumgebung
WO2018133890A1 (de) Verfahren und vorrichtung zum erzeugen eines 3d-thermogramms
DE102019128707A1 (de) Robotersystem
WO2013091626A1 (de) Verfahren zur kalibrierung einer verkehrsüberwachungskamera zu einem lagesensor
DE102020200010A1 (de) Maschinensteuervorrichtung
DE102018201801A1 (de) Vorrichtung zur Wahrnehmung eines Bereichs, Verfahren zum Betreiben einer Vorrichtung und Computerprogrammprodukt
DE102017100060A1 (de) Bestimmung von Bewegungsinformation mit Umgebungssensoren
DE112021000229T5 (de) Roboter-System
DE102016213893A1 (de) Verfahren und Vorrichtung zum Bestimmen der Absolutposition eines Kraftfahrzeugs, Ortsbestimmungssystem, Kraftfahrzeug