DE102011015987A1 - System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten - Google Patents

System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten Download PDF

Info

Publication number
DE102011015987A1
DE102011015987A1 DE102011015987A DE102011015987A DE102011015987A1 DE 102011015987 A1 DE102011015987 A1 DE 102011015987A1 DE 102011015987 A DE102011015987 A DE 102011015987A DE 102011015987 A DE102011015987 A DE 102011015987A DE 102011015987 A1 DE102011015987 A1 DE 102011015987A1
Authority
DE
Germany
Prior art keywords
projection unit
markers
information
tracking device
reference points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011015987A
Other languages
English (en)
Inventor
Peter Keitler
Björn Schwerdtfeger
Nicolas Heuser
Beatriz Jimenez-Frieden
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Extend3D GmbH
Original Assignee
Extend3D GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Extend3D GmbH filed Critical Extend3D GmbH
Priority to DE102011015987A priority Critical patent/DE102011015987A1/de
Priority to PCT/EP2012/001459 priority patent/WO2012136345A2/de
Priority to US14/009,531 priority patent/US20140160115A1/en
Priority to EP12722290.9A priority patent/EP2695383A2/de
Publication of DE102011015987A1 publication Critical patent/DE102011015987A1/de
Priority to US15/285,568 priority patent/US20170054954A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

Ein System zur visuellen Darstellung von Informationen auf realen Objekten umfasst eine Projektionseinheit (14) zur grafischen oder bildlichen Übertragung einer Information auf ein Objekt und ist gekennzeichnet durch eine dynamische Trackingeinrichtung mit einer 3D-Sensorik zur Bestimmung und Nachverfolgung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) im Raum, und eine Steuereinrichtung für die Projektionseinheit (14), die die Übertragung der Information an die aktuelle, von der Trackingeinrichtung bestimmte Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) anpasst. Ein Verfahren zur visuellen Darstellung von Informationen auf realen Objekten mit einer Projektionseinheit (14), umfasst die Schritte: Bestimmen der aktuellen Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) im Raum; grafisches oder bildliches Übertragen einer Information auf das Objekt auf der Grundlage der bestimmten Position und/oder Lage; Erkennen und Bestimmen einer Änderung der Position und/oder Lage der Objekts und/oder der Projektionseinheit (14); und Anpassen der Übertragung der Information an die geänderte Position und/oder Lage des Objekts und/oder der Projektionseinheit (14).

Description

  • Die Erfindung betrifft ein System zur visuellen Darstellung von Informationen auf realen Objekten. Die Erfindung betrifft ferner ein Verfahren zur visuellen Darstellung von Informationen auf realen Objekten.
  • Es sind verschiedene Augmented-Reality-Systeme (kurz: AR-Systeme) bekannt, mit denen allgemein die visuelle Realitätswahrnehmung erweitert wird. Beispielsweise können Bilder oder Videos durch Einblendung computergenerierter Zusatzinformationen ergänzt werden. Aber auch auf reale Objekte können für einen Betrachter sichtbare Informationen übertragen werden. Diese Technik wird unter anderem in der Konstruktion, Montage oder Wartung eingesetzt. So können Laserprojektoren eine optische Unterstützung bieten, etwa beim Ausrichten von großen Schablonen für Lackierungen oder in der Qualitätssicherung. Jedoch musste bisher für eine präzise Projektion der Laserprojektor statisch an einer Stelle montiert sein. Die Werkstücke mussten jeweils abhängig von der Position und Lage (Pose) des Lasers genau eingemessen werden. Jede Veränderung der Pose des Laserprojektors oder des Werkstücks erforderte ein zeitaufwendiges erneutes Einmessen. Daher können Laserprojektionssysteme bis jetzt nur in statischen Aufbauten sinnvoll eingesetzt werden.
  • Aufgabe der Erfindung ist es, die Einsatzmöglichkeiten eines Systems zur visuellen Darstellung von Informationen auf realen Objekten zu erweitern.
  • Gelöst wird diese Aufgabe durch ein System mit den Merkmalen des Anspruchs 1 sowie durch ein Verfahren mit den Merkmalen des Anspruchs 14. Vorteilhafte und zweckmäßige Ausgestaltungen des erfindungsgemäßen Systems und des erfindungsgemäßen Verfahrens sind in den zugehörigen Unteransprüchen angegeben.
  • Das erfindungsgemäße System zur visuellen Darstellung von Informationen auf realen Objekten umfasst eine Projektionseinheit zur grafischen oder bildlichen Übertragung einer Information auf ein Objekt und ist gekennzeichnet durch eine dynamische Trackingeinrichtung mit einer 3D-Sensorik zur Bestimmung und Nachverfolgung der Position und/oder Lage des Objekts und/oder der Projektionseinheit im Raum, und eine Steuereinrichtung für die Projektionseinheit, die die Übertragung der Information an die aktuelle, von der Trackingeinrichtung bestimmte Position und/oder Lage des Objekts und/oder der Projektionseinheit anpasst.
  • Mit der Erfindung lässt sich die Effizienz manueller Arbeitsschritte in Fertigung, Montage und Wartung steigern und gleichzeitig die Arbeitsqualität erhöhen. Durch die präzise Übertragung von Informationen, beispielsweise des digitalen Planungsstands (CAD-Modell) direkt auf ein Werkstück, entfällt die aufwändige und fehleranfällige Übertragung von Bauplänen mittels Schablonen und anderen Messinstrumenten. Ein visueller Soll-Ist Vergleich ist jederzeit und für einen Anwender intuitiv durchführbar. Zudem können Arbeitsanweisungen, z. B. Schritt-für-Schritt-Anleitungen, direkt am Arbeitsobjekt bzw. im Sichtfeld des Anwenders zur Verfügung gestellt werden, also genau dort, wo sie tatsächlich benötigt werden.
  • Die erfindungsgemäße Kombination eines Projektors mit einer dynamischen 3D-Trackingeinrichtung ermöglicht ein fortwährendes, automatisches Einmessen (Referenzierung) des Projektors und/oder des Objekts, auf dem eine Information dargestellt werden soll, relativ zur Arbeitsumgebung. Somit können sowohl die Projektionseinheit als auch das Objekt frei bewegt werden, da bei jeder Bewegung der Projektionseinheit oder des Objekts die grafische bzw. bildliche Übertragung der Information automatisch nachgeführt wird. Dank dieser Mobilität passt sich das erfindungsgemäße System im Gegensatz zu den bekannten statischen Systemen selbsttätig an verschiedene, sich verändernde Umgebungsbedingungen an. Damit eröffnet sich ein viel breiteres Spektrum an Einsatzmöglichkeiten.
  • So lässt sich das erfindungsgemäße System in großen und/oder unübersichtlichen Umgebungen, wie sie etwa im Flugzeug- oder Schiffsbau vorherrschen, stets so positionieren, dass sich die zu bearbeitenden Teile eines Werkstücks im Projektionsbereich befinden. Durch die flexible Platzierung lassen sich zudem Störungen von parallel laufenden Aktivitäten weitestgehend vermeiden. Auch in Szenarien, in denen ein Objekt während des Arbeitsprozesses bewegt wird, etwa am Fließband, können Montageanweisungen oder Informationen zur Qualitätssicherung direkt auf das Objekt projiziert werden. Die Projektion wandert dabei mit der Bewegung des Objektes mit.
  • Typische Einsatzszenarien für die Erfindung sind Werker-Assistenzsysteme zur Anzeige von Montage- und Wartungsanweisungen sowie von Informationen zur Qualitätssicherung. Beispielsweise können Montagepositionen oder Bohrungen exakt markiert oder zu überprüfende Schweißpunkte oder Halter gekennzeichnet werden. Das System eignet sich auch für die Unterstützung von Servicepersonal vor Ort durch nicht ansässige Experten, welche über eine integrierte Kamera die Projektion fernsteuern können.
  • Damit die projizierte Information nicht verzögert auf das Objekt übertragen wird, was zu Fehlern oder Ungenauigkeiten bei den Arbeiten führen kann, ist die dynamische Trackingeinrichtung zur fortwährenden Erfassung der Position und/oder Lage des Objekts und/oder der Projektionseinheit in Echtzeit ausgelegt.
  • Die Projektionseinheit ist das Herzstück des Visualisierungssystems. Eine bei herkömmlichen Systemen nicht verfügbare Flexibilität wird dadurch erreicht, dass die Projektionseinheit ein mobil aufstellbares Gerät ist, in dem ein Projektor, vorzugsweise ein Laserprojektor, und zugleich die 3D-Sensorik der Trackingeinrichtung untergebracht sind. Wichtig ist hierbei eine starre Verbindung zwischen dem Projektor und der Empfangseinheit der 3D-Sensorik (Kamera oder dergl.), damit ein konstanter, kalibrierbarer Offset bestehen bleibt. Somit ist es möglich, die Position und/oder Lage der Projektionseinheit jederzeit genau zu bestimmen, auch wenn die Projektionseinheit zwischendurch repositioniert wird. Der Laserprojektor ist im Vergleich zu anderen Projektionstechniken sehr kontrastreich und garantiert die bestmögliche Sichtbarkeit von Konturen und Geometrien, selbst auf dunklen oder spiegelnden Oberflächen und auch in hellen Umgebungen (Tageslicht). Die lange Lebensdauer der Lichtquelle und der geringe Stromverbrauch sowie die Robustheit unter widrigen Bedingungen sind weitere Vorzüge des Laserprojektors.
  • Die 3D-Sensorik der Trackingeinrichtung weist vorzugsweise wenigstens eine Kamera auf. Kameras sind für Trackinganwendungen sehr gut geeignet. In Verbindung mit bestimmten Markern, die von einer Kamera erfasst werden können, kann mittels mathematischer Verfahren auf die Pose der Kamera rückgeschlossen wenden. Wenn nun die Kamera als Teil der 3D-Sensorik der Trackingeinrichtung in der Projektionseinheit untergebracht ist (d. h. wenn eine starre Verbindung zwischen Kamera und Projektor besteht), kann leicht die Pose des Projektors bestimmt werden.
  • Für das Einmessen und/oder die Nachverfolgung der Projektionseinheit und/oder des Objekts sind spezielle Marker sinnvoll, die an Referenzpunkten einer Umgebung angeordnet sind, in der das System eingesetzt wird, und von der 3D-Sensorik der Trackingeinrichtung erfassbar sind.
  • Gemäß einem besonders vorteilhaften Aspekt der Erfindung sind die Marker und die Trackingeinrichtung so aufeinander abgestimmt, dass die Trackingeinrichtung mittels der Marker zum einen eine Einmessung der Referenzpunkte in einem Koordinatensystem der Umgebung oder des Objekts und zum anderen die Bestimmung und Nachverfolgung der Position und/oder Lage des Objekts und/oder der Projektionseinheit vornehmen kann. Die Marker erfüllen in diesem Fall also eine Doppelfunktion, was den Aufwand für die Vorbereitungen vor der Benutzung des Visualisierungssystems reduziert und damit die Effizienz des Systems erhöht.
  • Die Marker können insbesondere auf Flachmarkern basieren und weisen vorzugsweise charakteristische Rechtecke und/oder Ecken auf, die vorteilhaft für die Ermittlung der Pose der Kamera relativ zu den Marker herangezogen werden können.
  • Für das Einmessen und das Tracken der ist es von Vorteil, wenn die Marker eindeutige, von der Trackingeinrichtung erfassbare Identifizierungsmerkmale aufweisen, insbesondere in Form von Bitmustern.
  • In einer besonders bevorzugten Ausführungsform der Erfindung weisen die Marker Retroreflektormarken auf, die vorzugsweise in der Mitte des jeweiligen Markers angeordnet sind. Die Retroreflektormarken lassen sich mit einem Laserprojektor gut anpeilen, und mit einem Optimierungsalgorithmus kann durch Messung des reflektierten Lichts eine Zentrierung erfolgen, sodass 2D-Korrespondenzen im Bildkoordinatensystem der Projektionseinheit, passend zu in 3D bekannten Referenzpositionen hergestellt werden können für eine Berechnung der Transformation zwischen der Projektionseinheit und dem Objekt.
  • Gemäß einer vorteilhaften Gestaltung sind die Retroreflektormarken als Kugelelemente mit einer Öffnung ausgebildet, durch die eine vorzugsweise am Kugelmittelpunkt angebrachte Retroreflektorfolie sichtbar ist. Ein solches Kugelelement kann um seinen Mittelpunkt beliebig gedreht werden, um eine bessere Sichtbarkeit zu erreichen, ohne dass sich dadurch die Koordinaten des Kugelmittelpunkts mit der Retroreflektorfolie ändern.
  • Vorzugsweise sind die Retroreflektormarken so gestaltet, dass sie in der Umgebung, in der das System eingesetzt wird, an Referenzpunkten mit bekannter bzw. verlässlicher Position in einem Koordinatensystem der Umgebung oder des Objekts anbringbar sind. Insbesondere können die Retroreflektormarken in Normbohrungen eingesteckt werden, die in vielen Anwendungsfällen an festgelegten Referenzpunkten bereits vorhanden und dokumentiert sind.
  • Wahlweise können auch die gesamten Marker so gestaltet sein, dass sie über Adapter oder Zwischenstücke an Referenzpunkten mit bekannter oder verlässlicher Position (und ggf. Lage) in einem Koordinatensystem der Umgebung oder des Objekts anbringbar sind, insbesondere durch Einstecken in an den Referenzpunkten vorhandene Normbohrungen. So kann im Falle eines Flachmarkers, der um eine Retroreflektormarken ergänzt ist, das Flachmarkertracking die Pose des Flachmarkers liefern, sodass die bekannte Pose der Normbohrung im Referenzunkt über die bekannte Geometrie des Adapters bzw. Zwischenstücks in die Pose des Flachmarkers überführbar ist und umgekehrt.
  • Eine bevorzugte Ausbildung der Marker sieht vor, dass die Marker jeweils eine Normbohrung und einen unter der Normbohrung angeordneten Magneten aufweisen. Kugelförmige Retroreflektormarken mit einer metallischen Basis lassen sich dann leicht in die Normbohrung einstecken und werden vom Magneten gehalten, wobei ein Ausrichten der Retroreflektormarken durch Drehen möglich ist.
  • Die Erfindung schafft auch ein Verfahren zur visuellen Darstellung von Informationen auf realen Objekten mit einer Projektionseinheit. Das erfindungsgemäße Verfahren umfasst folgende Schritte:
    • – Bestimmen der aktuellen Position und/oder Lage des Objekts und/oder der Projektionseinheit im Raum;
    • – grafisches oder bildliches Übertragen einer Information auf das Objekt auf der Grundlage der bestimmten Position und/oder Lage;
    • – Erkennen und Bestimmen einer Änderung der Position und/oder Lage des Objekts und/oder der Projektionseinheit; und
    • – Anpassen der Übertragung der Information an die geänderte Position und/oder Lage des Objekts und/oder der Projektionseinheit.
  • Die Vorteile dieses Verfahrens entsprechen denen des erfindungsgemäßen Systems zur visuellen Darstellung von Informationen auf realen Objekten.
  • Für ein sofortiges, akkurates Nachführen der projizierten Information bei einer Positions- oder Lageänderung des Objekts und/oder der Projektionseinheit ist vorgesehen, dass die aktuelle Position und/oder Lage des Objekts und/oder der Projektionseinheit fortwährend in Echtzeit erfasst wird.
  • In vorteilhafter Weise kann ein Laserprojektor der Projektionseinheit zum Anpeilen von Marker genutzt werden, die an Referenzpunkten einer Umgebung angeordnet sind, in der das Verfahren eingesetzt wird, wobei die Marker von einer 3D-Sensorik einer Trackingeinrichtung erfasst werden.
  • Gemäß einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens werden – vorzugsweise dieselben – Marker für ein Einmessen der Referenzpunkte in einem Koordinatensystem der Umgebung oder des Objekts und für das Bestimmen einer Änderung der Position und/oder Lage des Objekts und/oder der Projektionseinheit verwendet.
  • Beim erfindungsgemäßen Verfahren ist es möglich, für das Erkennen und Bestimmen einer Änderung der Position und/oder Lage des Objekts und/oder der Projektionseinheit ein Inside-Out-artiges Trackingverfahren mit wenigstens einer beweglichen Kamera und fest installierten Marker zu verwenden. Die Kamera kann in der mobilen Projektionseinheit untergebracht sein und wird so immer zusammen mit dem darin befindlichen Projektor bewegt. Für eine zuverlässige Kalibrierung des Offsets zwischen Projektor und Kamera ist eine starre Verbindung zwischen den beiden Geräten vorgesehen.
  • Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und aus den beigefügten Zeichnungen, auf die Bezug genommen wird. In den Zeichnungen zeigen:
  • 1 eine Schnittansicht einer Rumpftonne eines Flugzeugs mit einem erfindungsgemäßen System;
  • 2 eine Detailvergrößerung aus 1;
  • 3 eine Detailvergrößerung aus 2 im Falle einer korrekten Halterungsmontage;
  • 4 eine Detailvergrößerung aus 2 im Falle einer fehlerhaften Halterungsmontage;
  • 5 eine Draufsicht auf einen Flachmarker;
  • 6 eine Draufsicht auf einen Kombi-Marker ohne Retroreflektormarke;
  • 7 eine Seitenansicht eines Kombi-Markers ohne Retroreflektormarke;
  • 8 eine Seitenansicht eines in einer Arbeitsumgebung montierten Kombi-Markers ohne Retroreflektormarke;
  • 9 eine Schnittansicht einer Referenzmarke;
  • 10 eine Seitenansicht eines Kombi-Markers mit Retroreflektormarke und Sichtwinkelbereichen für Laserprojektor und Kamera;
  • 11 eine Seitenansicht eines Kombi-Markers mit geneigter Retroreflektormarke;
  • 12 eine Seitenansicht eines in einer Arbeitsumgebung mithilfe eines Zwischenstücks montierten Kombi-Markers ohne Retroreflektormarke; und
  • 13 eine Seitenansicht eines Kombi-Markers ohne Retroreflektormarke mit einem Steckadapter.
  • Exemplarisch wird im Folgenden ein Einsatzszenario für ein System und ein Verfahren zur visuellen Darstellung von Informationen auf realen Objekten (Visualisierungssystem) erläutert, nämlich die Kontrolle der Haltermontage beim Bau eines Flugzeugs.
  • Der Bau großer Objekte (Flugzeuge, Schiffe, Fabrikationsanlagen, Maschinen, etc.) wird nach wie vor Großteils in Handarbeit bestritten. Zum einen rechtfertigen die geringen Stückzahlen keinen Einsatz von Robotern, zum anderen sind die großen Dimensionen maschinell nur schlecht handhabbar. Die Fertigung gleicht einer Manufaktur. Große Objekte, wie Rumpftonnen im Flugzeugbau, stehen statisch an einem Ort und werden über einen Zeitraum von Wochen systematisch in Handarbeit aufgerüstet. Der Qualitätssicherung kommt deshalb eine zentrale Bedeutung zu, um ein konstantes Qualitätsniveau gewährleisten zu können.
  • Die 1 und 2 zeigen die Rumpftonne 10 eines Großraumflugzeuges. Sie ist ca. 12 m lang und 8 m hoch. Solche Rumpfsegmente werden zunächst einzeln aufgebaut und erst später zu einem Rumpf zusammengesetzt. Die Montage von Halterungen 12 für die spätere Installation von Bordelektronik, Klimaanlage, usw. nimmt pro Rumpftonne 10 sehr viel Zeit in Anspruch. Einen erheblichen Anteil daran hat die Qualitätssicherung, d. h. die Überprüfung der korrekten Montage einer Vielzahl von Halterungen 12. Sie wird bisher durch massiven Personaleinsatz auf Basis großformatiger Baupläne bewerkstelligt, welche aus einem CAD-Modell generiert und dann ausgedruckt werden. Die monotone Arbeit sowie häufige Blickwechsel zwischen Bauplan und Objekt führen zu Flüchtigkeitsfehlern, nicht nur in der Fertigung, sondern auch in der Qualitätssicherung, welche sich auf die Produktivität nachfolgender Arbeitsschritte negativ auswirken.
  • Die Überprüfung der korrekten Montage der Halterungen 12 in der Rumpftonne 10 kann gemäß der Darstellung in 1 mithilfe des Visualisierungssystems bewerkstelligt werden, das eine mobile Projektionseinheit 14 zur grafischen oder bildlichen Übertragung einer Information auf ein Objekt (Werkstück) aufweist, vorzugsweise mit einem Laserprojektor. Das System umfasst ferner eine dynamische Trackingeinrichtung mit einer 3D-Sensorik zur Bestimmung und Nachverfolgung der Position und/oder Lage des Objekts und/oder der Projektionseinheit 14 im Raum. Schließlich umfasst das System noch eine Steuereinrichtung für die Projektionseinheit 14, die die Übertragung der Information an die aktuelle, von der Trackingeinrichtung bestimmte Position und/oder Lage des Objekts und/oder der Projektionseinheit 14 anpasst. Der Laserprojektor, die 3D-Sensorik der Trackingeinrichtung und die Steuereinrichtung sind alle in der mobilen Projektionseinheit 14 untergebracht. Unter der Steuereinrichtung sind hier diejenigen Komponenten zu verstehen, die für eine Anpassung der Projektion sorgen, insbesondere hinsichtlich Richtung, Schärfe und/oder Größe. Eine (nicht gezeigte Bedien- und Versorgungseinrichtung ist über einen langen und robusten Kabelschlauch (Strom, Daten) mit der Projektionseinheit 14 verbunden.
  • Die für die Montage der Halterungen 12 wesentlichen Informationen aus den Bauplänen, insbesondere die Anordnung und die Umrisse von Bauteilen, stehen dem System zur Verfügung. Insbesondere ist vorgesehen, Baugruppen aus einem CAD-Modell zu exportieren und weitgehend automatisiert für eine Projektion aufzubereiten. Es wird ein Polygonzug (Kontur) generiert, welcher durch den Laserprojektor reproduziert werden kann. So kann die gewünschte Information mit der Projektionseinheit 14 gemäß der Vorgabe aus dem CAD-Modell auf das bereits verbaute Objekt projiziert werden. Auf der Grundlage der Projektion werden etwaige Diskrepanzen mit den Bauplänen unmittelbar sichtbar. In 3 ist eine korrekte Montage einer Halterung 12 dargestellt, in 4 eine Fehlmontage. Zusätzlich oder alternativ zu den reinen CAD-Daten können auch weitere Hinweise, Schritt-für-Schritt-Anleitungen, Pfeile, etc. projiziert werden. Flüchtigkeitsfehler werden damit weitgehend ausgeschlossen, und die Kontrolle der Montage kann wesentlich schneller durchgeführt werden. Grundsätzlich ist es dank der Unterstützung durch das Visualisierungssystem möglich, die Fertigung und die Qualitätssicherung kombiniert durchzuführen, um die Produktivität weiter zu steigern.
  • Grundvoraussetzung für die korrekte Funktion des Visualisierungssystems ist, dass Position und/oder Lage (je nach Anwendung) der Projektionseinheit 14 in der Arbeitsumgebung zu jedem Zeitpunkt mittels der 3D-Sensorik bestimmt werden können. Hierzu ist vorgesehen, dass das für die Positions- und/oder Lagebestimmung erforderliche Einmessen dynamisch, d. h. nicht nur einmalig, sondern fortwährend oder zumindest nach jeder automatisch erkannten oder manuell mitgeteilten Positions- und/oder Lageänderung, mittels der Trackingeinrichtung über standardisierte Referenzpunkte erfolgt (dynamische Referenzierung). Diese Referenzpunkte können auf einfache Weise an verschiedenen Raumpositionen temporär montiert werden, z. B. mittels Klebeband und/oder Heißkleber.
  • Gemäß einer ersten Variante können die Referenzpunkte mit einem kommerziell erhältlichen Lasertracker präzise vermessen werden, wobei das Koordinatensystem der Arbeitsumgebung, hier das Flugzeugkoordinatensystem, zugrundegelegt wird.
  • Gemäß einer zweiten, bevorzugten Variante werden spezielle, auf die 3D-Sensorik der Trackingeinrichtung abgestimmte Marker 16 an den Referenzpunkten eingehängt. Auf die besonderen Anforderungen an die Marker 16 wird später noch genau eingegangen. Jedenfalls kann die 3D-Sensorik über die Marker 16 die Referenzpunkte einmessen und anschließend die Projektionseinheit 14 ins Koordinatensystem der Arbeitsumgebung einmessen. Das Visualisierungssystem ist dann betriebsbereit.
  • Bei der oben beschriebenen Anwendung im Flugzeugbau werden die Marker 16 verklebt und eingemessen und stehen dann für die ganze Dauer eines Bauabschnittes (mehrere Wochen) zur Verfügung, d. h. solange, bis durch den Baufortschritt die aktuellen Positionen verdeckt werden; die Marker 16 müssten dann ggf. neu montiert werden. Dadurch können ohne zusätzlichen Aufwand (Einmessen der Referenzpunkte) weitere Arbeitsschritte innerhalb eines Bauabschnittes auf die Benutzung des Visualisierungssystems mit der Projektionseinheit 14 umgestellt werden.
  • Zur dynamischen Einmessung (Referenzierung) der Projektionseinheit 14 und dessen nahtlose Integration in bestehende Arbeitsprozesse werden die Basistechnologien ”klassische Messtechnik” und ”Tracking” kombiniert. Die klassische Messtechnik ist Industriestandard. Sie ist zwar sehr genau, aber auch teuer und unflexibel, da immer zwei getrennte Arbeitsschritte erforderlich sind, nämlich die eigentliche Messung und die Aufbereitung/Visualisierung/Analyse der Messdaten.
  • Tracking bezeichnet im Gegensatz zur klassischen Messtechnik Echtzeit-Messsysteme. Üblicherweise werden Position und Lage (Pose, sechs Freiheitsgrade) bestimmt. Ein wesentlicher Vorteil besteht darin, dass aufgrund des Echtzeit-Charakters der Messung die Ergebnisse unmittelbar zur Verfügung stehen. Die aufwändige, nachträgliche Auswertung von Messdaten entfällt. Darüber hinaus ist Tracking eine Grundvoraussetzung für Augmented-Reality-Systeme (AR-Systeme) zur interaktiven Einblendung virtueller Inhalte (CAD-Daten, etc.) in das Blickfeld des Anwenders, zu denen auch das oben beschriebene Visualisierungssystem zählt.
  • Nachfolgend wird genauer auf die Marker 16 eingegangen, die sowohl für die Einmessung der Referenzpunkte als auch für die dynamische Referenzierung der Projektionseinheit 14 verwendet werden. Für ein optisches Tracking mit einer Kamera sind sogenannte Flachmarker geeignet, die in beliebiger Größe gefertigt werden können. Ein Beispiel für einen solchen Flachmarker 18 mit einem Bitmuster 20 ist in 5 gezeigt. Über das äußere und innere Rechteck 22 bzw. 24 (Eckpunkte) lässt sich mit mathematischen Verfahren die Pose der Kamera relativ zum Marker ermitteln. Es genügt dafür grundsätzlich eine einfache, billige Kamera; mehrere und/oder hochwertigere Kameras erhöhen die Genauigkeit.
  • Die Integration von Trackingverfahren in bestehende Prozesse gestaltet sich allgemein schwierig, vor allem wegen der bisher ungelösten Einmess-Problematik, die im Folgenden kurz erläutert wird. Die wenigen, sich im produktiven Einsatz befindlichen Anlagen basieren ausschließlich auf sogenannten „Outside-In-Verfahren”, bei denen Sensoren (insbesondere Kameras) in der Umgebung fest verbaut und in dieser fest eingemessen sind. Das ist unflexibel und in den wenigsten der potentiellen Einsatzszenarien von AR-Systemen tatsächlich durchführbar, da entweder die Umgebung nicht dauerhaft mit Kameras ausgerüstet werden kann (z. B. Flugzeug oder Schiff im Bau) oder im Arbeitsprozess Sichtbehinderungen auftreten, die eine flexible Ausrichtung der Kameras erfordern würden (z. B. Personal, Baumaterial, Zwischenwände, Arbeitsplattformen, etc.). Außerdem leiden Outside-In-Systeme in vielen Fällen an unzureichender Rotationsgenauigkeit.
  • Allgemein gilt in der Messtechnik der Leitsatz, dass das Volumen der zum Einmessen verwendeten Punkte grob dem Messvolumen entsprechen soll. Beim Outside-In-Tracking ist es notwendig, dass „von außen” mehrere am mobilen System angebrachte Referenzpunkte erkannt und zur Referenzierung verwendet werden. Da das Visualisierungssystem jedoch mobil, und damit in seiner Größe beschränkt ist, kann dem Leitsatz nur ungenügend Rechnung getragen werden. Zudem wirkt sich eine fehlerhafte Erkennung der Orientierung der Projektionseinheit dahingehend aus, dass die Projektion auf dem Werkstück einer Positionsungenauigkeit unterliegt, die linear mit der Arbeitsdistanz wächst.
  • Sogenannte „Inside-Out-Systeme”, bei denen die Kameras bewegt werden, die in der Umgebung fest installierte Marker „tracken”, werden bisher lediglich in der Forschung verwendet. Ihr produktiver Einsatz wird durch die bisher ungelöste Einmessproblematik faktisch verhindert.
  • Das Visualisierungssystem verwendet nun ein Inside-Out-ähnliches Messverfahren und verbindet dieses mit einem Echtzeit-Trackingverfahren, um mehr Flexibilität und Interaktivität im Sinne einer AR-Anwendung zu erreichen. Somit kann in jeder Situation eine das Messvolumen wesentlich besser „umfassende” Wolke an Referenzpunkten genutzt werden. Idealerweise sind in der Projektionseinheit 14 mehrere Kameras als Bestandteil der 3D-Sensorik angeordnet, z. B. als Stereosystem, oder situationsabhängig auch mit nach oben/unten/hinten gerichteten Kameras. Selbst mit nur einer Kamera ist jedoch das zuvor beschriebene Problem des linearen Anwachsens des Projektionsfehlers mit wachsender Arbeitsdistanz nicht mehr vorhanden. Zwar unterliegt im schlimmsten Fall die Positions- und/oder Lageerkennung der mobilen Projektionseinheit 14 einem Fehler. Dadurch jedoch, dass sich die Marker auf der Projektionsfläche befinden, können diese und die dazwischen liegenden Halter mit dem Laserprojektor immer exakt angepeilt werden, selbst wenn ein kleiner Positions- oder Lagefehler der Einheit vorliegt.
  • Für die händische Einmessung der Referenzpunkte in das zugrundeliegende Objektkoordinatensystem sind sogenannte Retroreflektormarken geeignet, die auftreffende Strahlung weitgehend unabhängig von der Ausrichtung des Reflektors Großteils in Richtung zurück zur Strahlungsquelle reflektieren. Die Retroreflektormarken können z. B. Kugelelemente mit einer Öffnung sein, durch die eine am Kugelmittelpunkt angebrachte Retroreflektorfolie sichtbar ist. Solche Retroreflektormarken werden üblicherweise in Normbohrungen im Objekt (Werkstück) gesteckt, evtl. mittels spezieller Adapter. Die mobile Projektionseinheit 14 kann sich dann semi-automatisch über den Laserstrahl und eine spezielle Sensorik in die Umgebung einmessen. Dabei werden die Retroreflektormarken zunächst manuell grob mit einem durch den Laserprojektor auf das Werkstück projizierten Fadenkreuz angepeilt. Die Peilung des Laserprojektors misst Azimut- und Elevationswinkel, sprich 2D-Punkte auf seiner imaginären Bildebene (vergleichbar mit einem klassischen Tachymeter). Ein Optimierungsalgorithmus zentriert das Fadenkreuz automatisch durch Messung des reflektierten Lichts und liefert somit eine 2D-Korrespondenz im Bildkoordinatensystem der Projektionseinheit 14, passend zu der in 3D bekannten Referenzposition. Mit mindestens vier 2D–3D Korrespondenzen kann die Transformation zwischen Projektionseinheit 14 und Werkstück berechnet werden. Bei jedem Auf- oder Umbau der Projektionseinheit 14 ist dieses Einmessverfahren erneut durchzuführen. Das Verfahren ist aber sehr genau und auch für mittlere Messvolumina bis ca. 6 m Abstand geeignet. Wenn die Transformation zwischen Werkstück und Projektionseinheit 14 noch ungefähr gültig ist, kann eine Optimierung vollautomatisch durchgeführt werden. Dieses Verfahren ist im Prinzip analog zu einer händischen Kalibrierung, jedoch entfällt das Anpeilen mit dem Fadenkreuz. Es können somit für alle vorhandenen Retroreflektormarken in ca. 1 bis 3 Sekunden (je nach Anzahl der Marker) optimierte 2D-Koordinaten gemessen und die Transformation entsprechend angepasst werden.
  • Für eine besser automatisierte Einmessung der Referenzpunkte und ein Tracking mit Kamera eignen sich sogenannte Kombi-Marker. Ein Kombi-Marker basiert auf einem herkömmlichen Flachmarker mit Bitmuster, wie er in 5 gezeigt ist, und ist um eine Retroreflektormarke erweitert. Die Retroreflektormarke ist direkt im Mittelpunkt des Flachmarkers angebracht, damit beide Verfahren denselben Mittelpunkt des Kombi-Markers eindeutig bestimmen können.
  • Die 6 und 7 zeigen einen solchen Kombi-Marker 26, noch ohne Retroreflektormarke. In der Mitte des Markers 26 sind eine Normbohrung 28 und ein unter der Normbohrung 28 angeordneter Magnet 30 vorgesehen. In 8 ist eine temporäre Befestigung eines solchen Kombi-Markers 26 in einer Arbeitsumgebung mittels zertifiziertem Klebeband 32 und Heißkleber 34 gezeigt.
  • 9 zeigt eine als Kugelelement ausgebildete Retroreflektormarke 36, die in die Normbohrung 28 gesteckt bzw. eingeklippt werden kann. Die Retroreflektormarke 36 setzt sich aus einer Metall-Halbkugel 38 und einem angeschraubten Kugelsegment 40 mit einer Bohrung 42 zusammen. Die Bohrung 42 legt den Kugelmittelpunkt frei, an dem eine Retroreflektorfolie 44 angebracht ist. Aus der 10 gehen der auf den Kugelmittelpunkt bezogene Sichtwinkelbereich α für den Laserprojektor (ca. 50°) und der entsprechende Sichtwinkelbereich β für die Kamera 50 (ca. 120°) des Visualisierungssystems hervor. Um den Sichtwinkelbereich für eine bestimmte Position und/oder Lage der Projektionseinheit 14 zu verbessern kann, wie in 11 beispielhaft gezeigt, die Retroreflektormarke 36 geneigt werden. Auch eine Montage mit einem geeigneten Zwischenstück 46 oder über einen Steckadapter 48 kann zur besseren Sichtbarkeit eines Kombi-Markers 26 beitragen, wie in 12 bzw. 13 gezeigt.
  • Für die dynamische Referenzierung der Projektionseinheit 14 müssen immer mindestens vier Kombi-Marker 26 sichtbar sein. Dazu wird eine ausreichende Anzahl von Kombi-Markern 26 mit Retroreflektormarken 36 an bestimmten Positionen in der Arbeitsumgebung (hier in der Rumpftonne 10) reversibel angebracht, sodass nach Möglichkeit für alle geplanten Perspektiven der Projektionseinheit 14 die Sichtbarkeit von mindestens vier Positionen sichergestellt ist.
  • Mithilfe der Kombi-Marker 26 erlaubt das beschriebene Konzept die Referenzierung des Laserprojektors in der Projektionseinheit 14 mit der bzw. den Kameras 50, die sich in der Projektionseinheit 14 befinden, d. h. im selben Gehäuse. Damit kann der Laserprojektor stets über die Kamera(s) getrackt werden, und ein manuelles Anpeilen der Retroreflektormarken nach einer Neupositionierung erübrigt sich. Die Visualisierung, also die Übertragung der zur Darstellung vorgesehenen Information auf das Objekt, kann durch das Kameratracking direkt an die neue Position und/oder Lage der Projektionseinheit 14 angepasst werden.
  • Damit werden folgende Probleme gelöst: Die Projektionseinheit 14 muss nicht mehr statisch montiert werden, da das Einmessen in Echtzeit geschieht. Ein flexibler Auf-/Um-/Abbau der Projektionseinheit 14 wird ermöglicht. Bei einem Verschieben der Projektionseinheit 14 wird die Projektion automatisch entsprechend umgerechnet. Außerdem ist kein händisches Einmessen bei Auf-/Umbau oder Verschieben der Projektionseinheit 14 mehr notwendig.
  • Zurückkommend auf das Beispielszenario der Montage der Halterungen 12 im Flugzeugbau gestaltet sich der eigentliche Arbeitsprozess zur Überprüfung der Montage nach diesem Konzept wie folgt: Die Projektionseinheit 14 wird auf ein Stativ 52 aufgestellt, sodass sich mindestens vier Kombi-Marker 26 im Sichtbereich der Kamera(s) und der Projektionseinheit 14 befinden. Durch die eindeutige, durch das Bitmuster 20 definierte ID der Kombi-Marker 26 kann das Visualisierungssystem jederzeit die in Echtzeit erkannte Pose der einzelnen Marker 16 mit den vorab in einer Setup-Phase bestimmten 3D-Positionen (Einmessung der Referenzpunkte) abgleichen. Dadurch kann die Pose der Projektionseinheit 14 relativ zum Werkstück hinreichend genau ermittel werden, um eine automatische Optimierung durch Anpeilen der Retroreflektormarken 36 erfolgreich durchführen zu können. Die Projektion wird gestartet, und es wird die erste Halterung 12 einer zu überprüfenden Liste angezeigt. Die Projektion kennzeichnet die Soll-Kontur der Halterung 12, sodass ein Montagefehler sofort und zweifelsfrei erkennbar ist (vgl. 3 und 4). Die Halterungen 12 werden auf diese Weise alle nacheinander abgearbeitet. Sollte sich eine Halterung 12 nicht im Projektionsbereich der Projektionseinheit 14 befinden, wird stattdessen ein Pfeil oder eine andere Information angezeigt, und die Projektionseinheit 14 wird entsprechend neu positioniert. Die Überprüfung kann dann wie beschrieben fortgesetzt werden.
  • Das beschriebene System geht davon aus, dass die Position und/oder Lage der Retroreflektormarken 36 im Objektkoordinatensystem bekannt ist. Dies kann durch Einstecken der Retroreflektormarken 36 bzw. der Kombi-Marker 26 an Normpunkten oder -bohrungen erreicht werden, evtl. über spezielle mechanische Steckadapter 48, wie in 13 gezeigt.
  • Das Tracking mithilfe von Flachmarkern funktioniert zwar in Echtzeit, ist aber weniger genau als die mittels Peilung der Retroreflektormarken 36 berechnete Transformation. Da aber durch Flachmarkertracking die Pose des Objekts zur Projektionseinheit 14 stets hinreichend genau bekannt ist, kann zu jedem Zeitpunkt die automatische Optimierung (siehe oben) angestoßen werden und somit in wenigen Sekunden eine hochgenaue Pose berechnet werden. Dies ist insbesondere für quantitative Messtechnik-Anwendungen (z. B. genaue Bohrungen in einem Werkstück) relevant.
  • Oft sind Referenzpunkte (Normpunkte oder -bohnrungen) am Werkstück oder in der Arbeitsumgebung nicht verfügbar. In diesem Fall kann klassische Messtechnik verwendet werden, um die Kombi-Marker 26 in der Umgebung einzumessen. Hierzu kann vorgesehen sein, dass an einem montierten Kombi-Marker 26 eine Antastkugel angebracht wird, die von einem taktilen Messsystem erfasst werden kann. Insbesondere kann eine solche Antastkugel im Zentrum des Kombi-Markers 26 platziert werden, um den Schwerpunkt des Flachmarkerteils und der Retroreflektormarke 36 zu bestimmen. Die Retroreflektormarke 36 ist dazu entnehmbar, da sie nur vom Magneten 30 gehalten wird. Wahlweise kann also die Antastkugel des taktilen Messsystems oder die Retroreflektormarke 36 der Trackingeinrichtung eingeklippt werden.
  • Alternativ können an den montierten Kombi-Markern 26 auch bestimmte Marken angebracht sein, die in gängigen photogrammetrischen Messsystemen in der Industrie verwendet werden. Solche z. B. runden Standard-Marken können insbesondere in den Ecken der viereckigen Kombi-Marker 26, genauer gesagt auf dem äußeren weißen Rand 22 angebracht werden. Dieses oder vergleichbare Verfahren basieren auf Bündelblockausgleichung, wobei mit Fotos die Registrierung der Kombi-Marker 26 untereinander erreicht wird.
  • Das exemplarisch beschriebene Visualisierungssystem kann auch in anderen Anwendungen genutzt werden, z. B. bei der Durchführung und Überprüfung von Bohrungen. Dabei werden die Sollposition des Bohrers sowie dessen Durchmesser als Information projiziert. Auch bei der Qualitätssicherung am Fließband, insbesondere in der Automobilindustrie, kann das Visualisierungssystem eingesetzt werden. Anstatt der flexiblen Repositionierung der Projektionseinheit in einem großen, unbeweglichen Objekt bewegt sich hier das Objekt selbst. Auf Basis statistischer Verfahren werden stichprobenartig zu prüfende Bereiche (z. B. Schweißpunkte) markiert. Die projizierte Information wandert mit der Bewegung des Objektes auf dem Fließband mit. Eine weitere Anwendung ist die Wartung in Werkstätten. Die mobile Projektionseinheit, evtl. an einem Schwenkarm befestigt, wird gezielt herangezogen, um in kniffligen Situationen Montageanweisungen auf ein Objekt zu projizieren. Das System kann auch genutzt werden, um Wartungsanweisungen eines nicht lokal verfügbaren Experten für das lokale Servicepersonal zu visualisieren (Remote Maintenance).
  • Bezugszeichenliste
  • 10
    Rumpftonne
    12
    Halterungen
    14
    Projektionseinheit
    16
    Marker
    18
    Flachmarker
    20
    Bitmuster
    22
    äußeres Rechteck
    24
    inneres Rechteck
    26
    Kombi-Marker
    28
    Normbohrung
    30
    Magnet
    32
    Klebeband
    34
    Heißkleber
    36
    Retroreflektormarke
    38
    Metall-Halbkugel
    40
    Kugelsegment
    42
    Bohrung
    44
    Retroreflektorfolie
    46
    Zwischenstück
    48
    Steckadapter
    50
    Kamera
    52
    Stativ

Claims (18)

  1. System zur visuellen Darstellung von Informationen auf realen Objekten, mit einer Projektionseinheit (14) zur grafischen oder bildlichen Übertragung einer Information auf ein Objekt, gekennzeichnet durch eine dynamische Trackingeinrichtung mit einer 3D-Sensorik zur Bestimmung und Nachverfolgung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) im Raum, und eine Steuereinrichtung für die Projektionseinheit (14), die die Übertragung der Information an die aktuelle, von der Trackingeinrichtung bestimmte Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) anpasst.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass die dynamische Trackingeinrichtung zur fortwährenden Erfassung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) in Echtzeit ausgelegt ist.
  3. System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass ein Projektor, vorzugsweise ein Laserprojektor, und die 3D-Sensorik der Trackingeinrichtung in der Projektionseinheit (14) untergebracht sind, wobei die Projektionseinheit (14) ein mobil aufstellbares Gerät ist.
  4. System nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die 3D-Sensorik der Trackingeinrichtung wenigstens eine Kamera (50) aufweist.
  5. System nach einem der vorherigen Ansprüche, gekennzeichnet durch Marker (16; 18; 26), die an Referenzpunkten einer Umgebung angeordnet sind, in der das System eingesetzt wird, und von der 3D-Sensorik der Trackingeinrichtung erfassbar sind.
  6. System nach Anspruch 5, dadurch gekennzeichnet, dass die Marker (16; 18; 26) und die Trackingeinrichtung so aufeinander abgestimmt sind, dass die Trackingeinrichtung mittels der Marker (16; 18; 26) zum einen eine Einmessung der Referenzpunkte in einem Koordinatensystem der Umgebung oder des Objekts vornehmen kann und zum anderen die Bestimmung und Nachverfolgung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) vornehmen kann.
  7. System nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass die Marker (16; 18; 26) auf Flachmarkern basieren und vorzugsweise charakteristische Rechtecke (22, 24) und/oder Ecken aufweisen.
  8. System nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die Marker (16; 18; 26) eindeutige, von der Trackingeinrichtung erfassbare Identifizierungsmerkmale aufweisen, insbesondere in Form von Bitmustern (20).
  9. System nach einem der Ansprüche 5 bis 8, dadurch gekennzeichnet, dass die Marker (16; 18; 26) Retroreflektormarken (36) aufweisen, die vorzugsweise in der Mitte des jeweiligen Markers (16; 18; 26) angeordnet sind.
  10. System nach Anspruch 9, dadurch gekennzeichnet, dass die Retroreflektormarken (36) Kugelelemente mit einer Öffnung (42) sind, durch die eine vorzugsweise am Kugelmittelpunkt angebrachte Retroreflektorfolie (44) sichtbar ist.
  11. System nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Retroreflektormarken (36) so gestaltet sind, dass sie in der Umgebung, in der das System eingesetzt wird, an Referenzpunkten mit bekannter oder verlässlicher Position in einem Koordinatensystem der Umgebung oder des Objekts anbringbar sind, insbesondere durch Einstecken in an den Referenzpunkten vorhandene Normbohrungen (28).
  12. System nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass die Marker (16; 18; 26) so gestaltet sind, dass sie über Adapter (48) oder Zwischenstücke (46) an Referenzpunkten mit bekannter oder verlässlicher Position in einem Koordinatensystem der Umgebung oder des Objekts anbringbar sind, insbesondere durch Einstecken in an den Referenzpunkten vorhandene Normbohrungen (28).
  13. System nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die Marker (16; 18; 26) eine Normbohrung (28) und einen unter der Normbohrung (28) angeordneten Magneten (30) aufweisen.
  14. Verfahren zur visuellen Darstellung von Informationen auf realen Objekten mit einer Projektionseinheit (14), umfassend folgende Schritte: – Bestimmen der aktuellen Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) im Raum; – grafisches oder bildliches Übertragen einer Information auf das Objekt auf der Grundlage der bestimmten Position und/oder Lage; – Erkennen und Bestimmen einer Änderung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14); und – Anpassen der Übertragung der Information an die geänderte Position und/oder Lage des Objekts und/oder der Projektionseinheit (14).
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die aktuelle Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) fortwährend in Echtzeit erfasst wird.
  16. Verfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass ein Laserprojektor der Projektionseinheit (14) zum Anpeilen von Markern (16; 18; 26) genutzt wird, die an Referenzpunkten einer Umgebung angeordnet sind, in der das Verfahren eingesetzt wird, wobei die Marker (16; 18; 26) von einer 3D-Sensorik einer Trackingeinrichtung erfasst werden.
  17. Verfahren nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass – vorzugsweise dieselben – Marker (16; 18; 26) für ein Einmessen der Referenzpunkte in einem Koordinatensystem der Umgebung oder des Objekts und für das Bestimmen und einer Änderung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) verwendet werden.
  18. Verfahren nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass das Erkennen und Bestimmen einer Änderung der Position und/oder Lage des Objekts und/oder der Projektionseinheit (14) auf einem Inside-Out-artigen Trackingverfahren mit wenigstens einer bewegliche Kamera (50) und fest installierten Markern (16; 18; 26) basiert.
DE102011015987A 2011-04-04 2011-04-04 System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten Ceased DE102011015987A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102011015987A DE102011015987A1 (de) 2011-04-04 2011-04-04 System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten
PCT/EP2012/001459 WO2012136345A2 (de) 2011-04-04 2012-04-02 System und verfahren zur visuellen darstellung von informationen auf realen objekten
US14/009,531 US20140160115A1 (en) 2011-04-04 2012-04-02 System And Method For Visually Displaying Information On Real Objects
EP12722290.9A EP2695383A2 (de) 2011-04-04 2012-04-02 System und verfahren zur visuellen darstellung von informationen auf realen objekten
US15/285,568 US20170054954A1 (en) 2011-04-04 2016-10-05 System and method for visually displaying information on real objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011015987A DE102011015987A1 (de) 2011-04-04 2011-04-04 System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten

Publications (1)

Publication Number Publication Date
DE102011015987A1 true DE102011015987A1 (de) 2012-10-04

Family

ID=46146807

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011015987A Ceased DE102011015987A1 (de) 2011-04-04 2011-04-04 System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten

Country Status (4)

Country Link
US (1) US20140160115A1 (de)
EP (1) EP2695383A2 (de)
DE (1) DE102011015987A1 (de)
WO (1) WO2012136345A2 (de)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015016798A2 (en) * 2013-07-31 2015-02-05 Imcom Yazilim Elektronik Sanayi Ltd. Sti. A system for an augmented reality application
DE102014104514A1 (de) * 2014-03-31 2015-10-01 EXTEND3D GmbH Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
EP3118574A1 (de) 2015-07-14 2017-01-18 ThyssenKrupp Marine Systems GmbH Verfahren zur herstellung eines formbauteils sowie vorrichtung zur durchführung des verfahrens
CN107160397A (zh) * 2017-06-09 2017-09-15 杭州亚美利嘉科技有限公司 机器人行走的模块地标、地标及其机器人
EP3244286A1 (de) * 2016-05-13 2017-11-15 Accenture Global Services Limited Installation eines physischen elements
WO2018036741A1 (de) * 2016-08-24 2018-03-01 Siemens Aktiengesellschaft Trackingloses projektionsbasiertes "augmented reality [ar]"-verfahren und -system zur montageunterstützung von produktionsgütern, insbesondere zum lokalisieren von nutensteinen für die bauteilmontage im waggonbau
DE102017206772A1 (de) * 2017-04-21 2018-10-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System zum Markieren von Teilen und/oder von Bereichen an Oberflächen von Teilen oder der Position eines Teils
DE102017005353A1 (de) * 2017-06-01 2018-12-06 Vdeh-Betriebsforschungsinstitut Gmbh Visualisierung einer Qualitätsinformation
CN109840938A (zh) * 2018-12-30 2019-06-04 芜湖哈特机器人产业技术研究院有限公司 一种用于复杂汽车点云模型重建方法
DE102018112910A1 (de) * 2018-05-30 2019-12-05 Mtu Friedrichshafen Gmbh Herstellungsverfahren für eine Antriebseinrichtung und Prüfeinrichtung

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947112B2 (en) * 2012-12-18 2018-04-17 Koninklijke Philips N.V. Scanning device and method for positioning a scanning device
US9881383B2 (en) 2013-01-28 2018-01-30 Virtek Vision International Ulc Laser projection system with motion compensation and method
US20140358298A1 (en) * 2013-05-31 2014-12-04 DWFritz Automation, Inc. Alignment tool
DE102013114707A1 (de) * 2013-12-20 2015-06-25 EXTEND3D GmbH Verfahren zur Durchführung und Kontrolle eines Bearbeitungsschritts an einem Werkstück
DE102014102773A1 (de) * 2014-03-03 2015-09-03 De-Sta-Co Europe Gmbh Verfahren zur Wiedergabe eines Fertigungsprozesses in einer virtuellen Umgebung
FR3021784B1 (fr) * 2014-05-27 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de projection de donnees virtuelles et dispositif permettant cette projection
WO2016022154A1 (en) * 2014-08-08 2016-02-11 Robotic Vision Technologies, LLC Detection and tracking of item features
US9412205B2 (en) * 2014-08-25 2016-08-09 Daqri, Llc Extracting sensor data for augmented reality content
US20160086372A1 (en) * 2014-09-22 2016-03-24 Huntington Ingalls Incorporated Three Dimensional Targeting Structure for Augmented Reality Applications
US9710960B2 (en) 2014-12-04 2017-07-18 Vangogh Imaging, Inc. Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans
US9978135B2 (en) * 2015-02-27 2018-05-22 Cognex Corporation Detecting object presence on a target surface
US10410419B2 (en) * 2015-03-02 2019-09-10 Virtek Vision International Ulc Laser projection system with video overlay
US20160358382A1 (en) * 2015-06-04 2016-12-08 Vangogh Imaging, Inc. Augmented Reality Using 3D Depth Sensor and 3D Projection
SG11201804559QA (en) 2015-12-01 2018-06-28 Vinci Construction Method and system for assisting installation of elements in a construction work
US10739670B2 (en) * 2015-12-04 2020-08-11 Augmency Teknoloji Sanayi Anonim Sirketi Physical object reconstruction through a projection display system
US11062383B2 (en) * 2016-05-10 2021-07-13 Lowe's Companies, Inc. Systems and methods for displaying a simulated room and portions thereof
WO2018056919A1 (en) * 2016-09-21 2018-03-29 Anadolu Universitesi Rektorlugu Augmented reality based guide system
US10380762B2 (en) 2016-10-07 2019-08-13 Vangogh Imaging, Inc. Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data
JP2018116036A (ja) * 2017-01-13 2018-07-26 株式会社エンプラス マーカ搭載用ユニット
JP2018116035A (ja) * 2017-01-13 2018-07-26 株式会社エンプラス マーカ搭載用ユニット
JP2018116037A (ja) * 2017-01-13 2018-07-26 株式会社エンプラス マーカ搭載用ユニットおよびその製造方法
US11270510B2 (en) * 2017-04-04 2022-03-08 David Peter Warhol System and method for creating an augmented reality interactive environment in theatrical structure
JP6718429B2 (ja) * 2017-12-22 2020-07-08 株式会社Subaru 画像投影装置
JP6831772B2 (ja) * 2017-12-22 2021-02-17 株式会社Subaru 画像投影装置
CN108062776B (zh) * 2018-01-03 2019-05-24 百度在线网络技术(北京)有限公司 相机姿态跟踪方法和装置
US10839585B2 (en) 2018-01-05 2020-11-17 Vangogh Imaging, Inc. 4D hologram: real-time remote avatar creation and animation control
US11080540B2 (en) 2018-03-20 2021-08-03 Vangogh Imaging, Inc. 3D vision processing using an IP block
US10810783B2 (en) 2018-04-03 2020-10-20 Vangogh Imaging, Inc. Dynamic real-time texture alignment for 3D models
US11170224B2 (en) 2018-05-25 2021-11-09 Vangogh Imaging, Inc. Keyframe-based object scanning and tracking
FR3086383B1 (fr) * 2018-09-21 2020-08-28 Diotasoft Procede, module et systeme de projection sur une piece d’une image calculee a partir d’une maquette numerique
JP7296218B2 (ja) * 2019-03-05 2023-06-22 倉敷紡績株式会社 断熱材の厚さ計測方法
EP3952296A4 (de) 2019-03-29 2022-04-27 Panasonic Intellectual Property Management Co., Ltd. Projektionssystem, projektionsvorrichtung und projektionsverfahren
US11170552B2 (en) 2019-05-06 2021-11-09 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time
US11232633B2 (en) 2019-05-06 2022-01-25 Vangogh Imaging, Inc. 3D object capture and object reconstruction using edge cloud computing resources
US11335063B2 (en) 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
JP7441707B2 (ja) * 2020-03-31 2024-03-01 株式会社ユーシン精機 アタッチメントの三次元形状寸法測定方法
US20220408067A1 (en) * 2021-06-22 2022-12-22 Industrial Technology Research Institute Visual recognition based method and system for projecting patterned light, method and system applied to oral inspection, and machining system
JP7296669B1 (ja) * 2022-02-28 2023-06-23 株式会社イクシス 測量方法、ターゲットマーカ、及び測量システム
CN116182803B (zh) * 2023-04-25 2023-07-14 昆明人为峰科技有限公司 一种遥感测绘装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
EP1134546A2 (de) * 2000-03-14 2001-09-19 DaimlerChrysler AG Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
US6556722B1 (en) * 1997-05-30 2003-04-29 British Broadcasting Corporation Position determination
DE10333039A1 (de) * 2003-07-21 2004-09-09 Daimlerchrysler Ag Messmarke
DE102004021892A1 (de) * 2004-05-04 2005-12-01 Daimlerchrysler Ag Robotergeführte optische Messanordnung sowie Verfahren und Hilfsvorrichtung zum Einmessen dieser Messanordnung
US20060103853A1 (en) * 2004-11-12 2006-05-18 The Boeing Company Optical projection system
US20060235849A1 (en) * 2005-02-24 2006-10-19 Robert Schmidt Portable laser projection device for medical image display
DE102006048869A1 (de) * 2006-10-17 2008-04-24 Volkswagen Ag Projektionsanordnung zur Darstellung eines Designs auf einer Oberfläche eines Kraftfahrzeuges
US20100277747A1 (en) * 2003-09-10 2010-11-04 Metris Canada Inc. Laser projection systems and methods

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5341183A (en) * 1992-09-28 1994-08-23 The Boeing Company Method for controlling projection of optical layup template
US5388318A (en) * 1992-10-09 1995-02-14 Laharco, Inc. Method for defining a template for assembling a structure
US6066845A (en) * 1997-11-14 2000-05-23 Virtek Vision Corporation Laser scanning method and system
US5870136A (en) * 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
US7372558B2 (en) * 2001-10-11 2008-05-13 Laser Projection Technologies, Inc. Method and system for visualizing surface errors
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector
EP1851588B1 (de) * 2005-02-01 2019-08-07 Laser Projection Technologies, Inc. Laserprojektion mit erkennung von objekteigenschaften

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
US6556722B1 (en) * 1997-05-30 2003-04-29 British Broadcasting Corporation Position determination
EP1134546A2 (de) * 2000-03-14 2001-09-19 DaimlerChrysler AG Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
DE10333039A1 (de) * 2003-07-21 2004-09-09 Daimlerchrysler Ag Messmarke
US20100277747A1 (en) * 2003-09-10 2010-11-04 Metris Canada Inc. Laser projection systems and methods
DE102004021892A1 (de) * 2004-05-04 2005-12-01 Daimlerchrysler Ag Robotergeführte optische Messanordnung sowie Verfahren und Hilfsvorrichtung zum Einmessen dieser Messanordnung
US20060103853A1 (en) * 2004-11-12 2006-05-18 The Boeing Company Optical projection system
US20060235849A1 (en) * 2005-02-24 2006-10-19 Robert Schmidt Portable laser projection device for medical image display
DE102006048869A1 (de) * 2006-10-17 2008-04-24 Volkswagen Ag Projektionsanordnung zur Darstellung eines Designs auf einer Oberfläche eines Kraftfahrzeuges

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015016798A3 (en) * 2013-07-31 2015-04-02 Imcom Yazilim Elektronik Sanayi Ltd. Sti. Augmented reality system for projecting an image onto the environment
WO2015016798A2 (en) * 2013-07-31 2015-02-05 Imcom Yazilim Elektronik Sanayi Ltd. Sti. A system for an augmented reality application
DE102014104514B4 (de) 2014-03-31 2018-12-13 EXTEND3D GmbH Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
DE102014104514A1 (de) * 2014-03-31 2015-10-01 EXTEND3D GmbH Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
EP3118574A1 (de) 2015-07-14 2017-01-18 ThyssenKrupp Marine Systems GmbH Verfahren zur herstellung eines formbauteils sowie vorrichtung zur durchführung des verfahrens
DE102015213124A1 (de) 2015-07-14 2017-01-19 Thyssenkrupp Ag Verfahren zur Herstellung eines Formbauteils sowie Vorrichtung zur Durchführung des Verfahrens
US10210390B2 (en) 2016-05-13 2019-02-19 Accenture Global Solutions Limited Installation of a physical element
CN107368329A (zh) * 2016-05-13 2017-11-21 埃森哲环球解决方案有限公司 物理元件的安装
EP3244286A1 (de) * 2016-05-13 2017-11-15 Accenture Global Services Limited Installation eines physischen elements
WO2018036741A1 (de) * 2016-08-24 2018-03-01 Siemens Aktiengesellschaft Trackingloses projektionsbasiertes "augmented reality [ar]"-verfahren und -system zur montageunterstützung von produktionsgütern, insbesondere zum lokalisieren von nutensteinen für die bauteilmontage im waggonbau
DE102017206772A1 (de) * 2017-04-21 2018-10-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System zum Markieren von Teilen und/oder von Bereichen an Oberflächen von Teilen oder der Position eines Teils
DE102017005353A1 (de) * 2017-06-01 2018-12-06 Vdeh-Betriebsforschungsinstitut Gmbh Visualisierung einer Qualitätsinformation
CN107160397A (zh) * 2017-06-09 2017-09-15 杭州亚美利嘉科技有限公司 机器人行走的模块地标、地标及其机器人
CN107160397B (zh) * 2017-06-09 2023-07-18 浙江立镖机器人有限公司 机器人行走的模块地标、地标及其机器人
DE102018112910A1 (de) * 2018-05-30 2019-12-05 Mtu Friedrichshafen Gmbh Herstellungsverfahren für eine Antriebseinrichtung und Prüfeinrichtung
DE102018112910B4 (de) * 2018-05-30 2020-03-26 Mtu Friedrichshafen Gmbh Herstellungsverfahren für eine Antriebseinrichtung und Prüfeinrichtung
CN109840938A (zh) * 2018-12-30 2019-06-04 芜湖哈特机器人产业技术研究院有限公司 一种用于复杂汽车点云模型重建方法
CN109840938B (zh) * 2018-12-30 2022-12-23 芜湖哈特机器人产业技术研究院有限公司 一种用于复杂汽车点云模型重建方法

Also Published As

Publication number Publication date
WO2012136345A3 (de) 2012-12-20
EP2695383A2 (de) 2014-02-12
US20140160115A1 (en) 2014-06-12
WO2012136345A2 (de) 2012-10-11

Similar Documents

Publication Publication Date Title
DE102011015987A1 (de) System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten
US20170054954A1 (en) System and method for visually displaying information on real objects
EP2638358B1 (de) Gerät zum vermessen und markieren von raumpunkten entlang horizontal verlaufender höhenlinien
DE102011077080B4 (de) System für zweidimensionale Grundriss- und Punktübertragung
DE19545589C2 (de) Verfahren und Vorrichtung zum Vermessen und Markieren
DE102005048136B4 (de) Verfahren zum Bestimmen eines virtuellen Tool-Center-Points
EP3056923A1 (de) Scananordnung und verfahren zum scannen eines objektes
DE102016105496A1 (de) System zur Prüfung von Objekten mittels erweiterter Realität
DE102013114707A1 (de) Verfahren zur Durchführung und Kontrolle eines Bearbeitungsschritts an einem Werkstück
EP3874229A1 (de) Vermessungssystem und messhilfsinstrument
EP1716392A1 (de) Verfahren zur lokalisierung von fehlstellen und markiersystem
DE102013205633B4 (de) Automatisiertes Grundriss- und Punktübertragungssystem
DE102009017491A1 (de) System und ein Verfahren zur Vermessung eines Manipulators
EP2573512A2 (de) Verfahren und Anordnung zur Bestimmung der Lage eines Messpunktes im geometrischen Raum
DE102012103980A1 (de) Verfahren und Vorrichtung zur Ausrichtung einer Komponente
DE102016215860A1 (de) Trackingloses projektionsbasiertes "Augmented Reality [AR]"-Verfahren und -System zur Montageunterstützung von Produktionsgütern, insbesondere zum Lokalisieren von Nutensteinen für die Bauteilmontage im Waggonbau
DE102018132921A1 (de) Verfahren zum Betreiben eines Feldgeräts der Automatisierungstechnik in einer Augmented-Reality/Mixed-Reality- Umgebung
DE102014104514B4 (de) Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
DE102017126495A1 (de) Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters
EP3779875A1 (de) Computergestütztes verfahren und einrichtung zum einmessen von bauelementen auf einer baustelle für die errichtung oder den ausbau eines gebäudes
EP3012581B1 (de) Anzielvorrichtung für elektro-optische Vermessungsgeräte
DE102004046752B4 (de) Verfahren zur dreidimensionalen Erfassung von Messobjekten
EP3385667A2 (de) Markiervorrichtung
DE202009017424U1 (de) Markiergerät
WO2019185153A1 (de) Verfahren und vorrichtung zum bestimmen von 3d-koordinaten eines objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final