DE102005061952A1 - Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System - Google Patents

Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System Download PDF

Info

Publication number
DE102005061952A1
DE102005061952A1 DE102005061952A DE102005061952A DE102005061952A1 DE 102005061952 A1 DE102005061952 A1 DE 102005061952A1 DE 102005061952 A DE102005061952 A DE 102005061952A DE 102005061952 A DE102005061952 A DE 102005061952A DE 102005061952 A1 DE102005061952 A1 DE 102005061952A1
Authority
DE
Germany
Prior art keywords
information
data
inaccuracy
data model
uncertainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005061952A
Other languages
English (en)
Other versions
DE102005061952B4 (de
Inventor
Katharina Pentenrieder
Peter Meier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Priority to DE102005061952A priority Critical patent/DE102005061952B4/de
Priority to JP2006342145A priority patent/JP4484863B2/ja
Priority to US11/614,155 priority patent/US7768534B2/en
Publication of DE102005061952A1 publication Critical patent/DE102005061952A1/de
Application granted granted Critical
Publication of DE102005061952B4 publication Critical patent/DE102005061952B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

In einem Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation (600) bei der Positionierung eines Datenmodells (1) einer virtuellen Information in einem Augmented Reality System wird das Datenmodell (1) auf die Bildebene einer Darstellungsvorrichtung (4) projiziert zur Vermischung mit Seheindrücken einer realen Umgebung. Die Ungenauigkeitsinformation wird dabei aus Parametern (10-0 bis 50-2, 40, 50, 60) in einem Abbildungs-Berechnungsprozess berechnet, anhand dessen das Datenmodell (1) auf die Bildebene der Darstellungsvorrichtung (4) projiziert wird. Damit kann eine relativ präzise Ungenauigkeitsinformation bei der Positionierung des Datenmodells in einem Augmented Reality System angegeben werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines Datenmodells einer virtuellen Information in einem Augmented Reality System. Hierbei wird das Datenmodell auf die Bildebene einer Darstellungsvorrichtung projiziert und mit Seheindrücken einer realen Umgebung vermischt. Weiterhin betrifft die vorliegende Erfindung ein entsprechendes System zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines Datenmodells einer virtuellen Information in einem Augmented Reality System.
  • Aus dem Stand der Technik sind sogenannte Augmented Reality Systeme bekannt. Diese erlauben die Überlagerung von computergenerierten, virtuellen Informationen mit Seheindrücken der realen Umgebung. Hierzu werden die Seheindrücke der realen Welt mit virtuellen Informationen vermischt, beispielsweise mittels einer auf dem Kopf des Anwenders getragenen halbdurchlässigen Datenbrille. Die Einblendung der virtuellen Information bzw. Objekte kann dabei kontextabhängig, d.h. angepasst und abgeleitet von der jeweilig betrachteten realen Umgebung ausgeführt werden. Als virtuelle Information kann grundsätzlich jede Art von Daten wie Texte, Abbildungen etc. verwendet werden. Die reale Umgebung wird beispielsweise mit einer auf dem Kopf des Anwenders getragenen Kamera erfasst. Ein Anwendungsbeispiel eines Augmented Reality Systems in einer Produktionsumgebung bezeichnet die Druckschrift DE 101 28 015 A1 . Darin ist ein Augmented Reality System zur Planung von veränderten Produktionsumgebungen in der Fertigungsindustrie beschrieben.
  • Weiterhin sind Verfahren zur Messung in einem Augmented Reality System bekannt. Hierbei werden beispielsweise Aussagen über absolute Positionen von virtuellen Objekten in der Kameraansicht generiert. Weiterhin können Aussagen über relative Positionen von virtuellen Objekten beispielsweise gegenüber einem realen Objekt in der Kameraansicht generiert werden. Die Strukturen, vorteilhafterweise Punkte oder Flächen, für die eine Aussage getroffen werden soll, werden dabei manuell gewählt. Dies geschieht etwa durch Auswahl der gewünschten Struktur durch den Anwender in der Kameraansicht, vorteilhafterweise über Mausklicks an den entsprechenden Stellen im Bild, durch Angabe von entsprechenden dreidimensionalen Koordinaten oder durch Definition von virtuellen Ebenen. Referenz für diese Auswahl sind im Falle von realen Objekten deren 2D-Projektionen im Bild und im Falle von virtuellen Objekten deren dreidimensionale Darstellung, die mit der realen Umgebung überlagert wird.
  • Die Genauigkeit der Messaussagen basiert dabei auf der Abweichung zwischen einer Ist-Position und einer Soll-Position von virtuellen Objekten in der Kameraansicht. Hierbei entspricht die Soll-Position der Position, die das virtuelle Objekt in einer perfekt berechneten, die reale Welt also genau abbildenden, virtuellen Welt einnehmen würde. Damit ergibt sich die Soll-Position des virtuellen Objekts als die Position, die sein reales Gegenstück im Kamerabild einnehmen würde. Eine Abweichung der Ist-Position entsteht dabei durch mit Ungenauigkeiten behaftete Einflussgrößen.
  • Im Stand der Technik sind ferner Methoden zur Angabe und Ermittlung der Unsicherheit von Messergebnissen bekannt. Insbesondere die DIN ENV 13005, „Leitfaden zur Angabe der Unsicherheit beim Messen", Deutsche Fassung ENV 13005: 1999, stellt einen Leitfaden dar mit dem Zweck, ein international einheitliches Vorgehen zur Ermittlung und Angabe von Messunsicherheiten zu empfehlen. Diese DIN-Norm bezieht sich dabei auf die Angabe und Ermittlung der Unsicherheit von Messergebnissen auf dem allgemeinen Gebiet der Technik. Unter Unsicherheit wird hierbei der dem Messergebnis zugeordnete Parameter verstanden, der die Streuung der Werte kennzeichnet, die der Messgröße vernünftigerweise zugeordnet werden können. Der Parameter kann eine Standardabweichung sein oder ein Bereich, der ein festgelegtes Vertrauensniveau hat. Näheres dazu findet sich in der oben genannten DIN-Norm.
  • Aufgrund der oben genannten Ungenauigkeiten in einem Augmented Reality System ist im Allgemeinen nur eine ungenaue Positionierung des virtuellen Objekts möglich. Da die genaue Abweichung der Ist-Position von der Soll-Posi tion des virtuellen Objekts unbekannt ist, kann eine Messaussage nur in Form einer Schätzung erfolgen, was jedoch die Anforderungen der DIN-Norm nur unzureichend erfüllt. Nachteilig an den aus dem Stand der Technik bekannten Systemen ist hierbei, dass für solche Messungen bisher keine Angaben zur Unsicherheit des Ergebnisses möglich sind. Ist das Messergebnis nur eine Schätzung des tatsächlichen Wertes, so ist die Angabe des Messergebnisses aber nur vollständig, wenn sie von der Angabe der Messunsicherheit des Schätzwertes begleitet wird, wie in der DIN-Norm spezifiziert.
  • Der vorliegenden Erfindung liegt somit die Aufgabe zugrunde, ein Verfahren zur Bestimmung einer relativ präzisen Ungenauigkeitsinformation bei der Positionierung eines Datenmodells einer virtuellen Information in einem Augmented Reality System anzugeben. Weiterhin ist es Aufgabe der vorliegenden Erfindung, ein entsprechendes System zur Bestimmung einer Ungenauigkeitsinformation anzugeben.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren zur Bestimmung einer Ungenauigkeitsinformation gemäß den Merkmalen des Patentanspruchs 1 gelöst. Weiterhin wird die Aufgabe durch ein System zur Bestimmung einer Ungenauigkeitsinformation gemäß den Merkmalen des Patentanspruchs 21 gelöst.
  • Bei dem Verfahren zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines Datenmodells einer virtuellen Information in einem Augmented Reality System gemäß der Erfindung wird die Ungenauigkeitsinformation aus Parametern in einem Abbildungs-Berechnungsprozess berechnet, anhand dessen das Datenmodell auf die Bildebene der Darstellungsvorrichtung projiziert wird. Mit dem Augmented Reality System wird hierbei das Datenmodell auf die Bildebene der Darstellungsvorrichtung projiziert zur Vermischung mit Seheindrücken einer realen Umgebung.
  • Mittels der Erfindung kann damit ein Verfahren zur Bestimmung einer relativ präzisen Ungenauigkeitsinformation bei der Positionierung des Datenmodells in einem Augmented Reality System angegeben werden. Die Ungenauigkeitsaus sage kann dabei spezifisch auf die gegebene Situation zugeschnitten sein und wird von Parametern abhängig gemacht, die die Ungenauigkeitsaussage für die gegebene Szene beeinflussen. Eine solche Ungenauigkeitsaussage lässt natürlich im Umkehrschluss auch auf eine entsprechende Genauigkeitsaussage schließen. Erfindungsgemäß wurden dabei diejenigen Parameter als maßgebend erkannt, die in dem Abbildungs-Berechnungsprozess verwendet werden, anhand dessen das Datenmodell auf die Bildebene der Darstellungsvorrichtung projiziert wird, insbesondere Parameter im Abbildungs-Berechnungsprozess ab der Festlegung eines virtuellen Koordinatensystems, das zur Positionierung des virtuellen Datenmodells dient. Soll beispielsweise eine relative Abweichung zwischen zwei Strukturen ermittelt werden, so ergeben sich diese Parameter aus den Berechnungsprozessen, die zu den zwei Strukturen – vorteilhafterweise Punkte oder Flächen – führen, zwischen denen die Abweichung vorliegt. Die Soll-Position ist hierbei das Kameraabbild der realen dreidimensionalen Struktur auf die Bildebene und einer anschließenden Verzerrung. Die Ist-Position ist die 2D-Projektion der positionierten virtuellen 3D-Struktur. Da die Messungen im digitalen Bild vorgenommen werden, werden beide Strukturen gemäß einer Ausführungsform der Erfindung für eine Pixel-genaue Aussage umgewandelt.
  • Beispielsweise wird gemäß einer Ausführungsform mit einer Kamera ein Bild von wenigstens einem Teil der realen Umgebung aufgenommen zur Vermischung mit dem virtuellen Datenmodell. Gemäß einer weiteren Ausführungsform wird ein sogenanntes See-Through Augmented Reality System verwendet. Hierbei können insbesondere zwei Varianten von See-Through Augmented Reality unterschieden werden. Bei Video See-Through Augmented Reality befindet sich vor dem Auge des Benutzers ein Videobildschirm, auf dem reale und virtuelle Seheindrücke vermischt werden. Im Falle von optischem See-Through geschieht diese Vermischung durch einen sogenannten Optischen Mixer – einer semi-transparenten Darstellungsvorrichtung vor dem Auge des Benutzers, bei der die reale Welt über die Transparenz der Vorrichtung zu sehen ist und die Überlagerung von virtuellen Informationen über Projektion auf die Darstellungsvorrichtung geschieht.
  • Eine mögliche Anwendung des erfindungsgemäßen Verfahrens bietet beispielsweise die Fertigungsindustrie. Hier soll beispielsweise für eine be stehende Produktion überprüft werden, ob ein neues, bisher nur in Form eines virtuellen Modells zur Verfügung stehendes Betriebsmittel oder Produkt dort eingesetzt werden kann. Da für viele Produktionsumgebungen keine vollständigen und korrekten Modelle existieren, ist ein auf visueller Informationsanreicherung basierendes Augmented Reality System für solch eine Überprüfung gut geeignet. Für die Überlagerung der realen Ansicht der Produktionsumgebung mit dem virtuellen Modell des Betriebsmittels oder Produkts werden beispielsweise Marker an den Stellen angebracht, an welchen später das reale Objekt eingesetzt werden soll. Bezüglich einem so definierten virtuellen Welt-Koordinatensystem kann nun das virtuelle Datenmodell positioniert werden. Ein solches virtuelles Datenmodell verfügt im Allgemeinen gemäß einer Ausführungsform über ein eigenes Modell-Koordinatensystem. Für den Anwendungsfall einer Fahrzeugkarosserie befindet sich der Ursprung eines solchen Modell-Koordinatensystems zum Beispiel zwischen den Rädern der Vorderachse des Modells. Eine Platzierung des Datenmodells wird in diesem Fall zusätzlich über eine Transformation zwischen dem virtuellen Welt-Koordinatensystem und dem Modell-Koordinatensystem vorgenommen.
  • Für eine Einsatzüberprüfung in der realen Produktionsumgebung werden an interessierenden Stellen in der Produktionsumgebung Messungen vorgenommen. Hierfür wird mit einer Kamera ein Bild von wenigstens einem Teil der realen Umgebung aufgenommen, und es werden beispielsweise Punkte am ins Bild projizierten virtuellen Datenmodell durch den Anwender gewählt, die durch ihre Anordnung oder Funktion besonders interessant sind. Hierbei ist im Rahmen einer genauen Positionierung des virtuellen Datenmodells wünschenswert, die genaue Abweichung der Ist-Position des Datenmodells von der Soll-Position zu ermitteln.
  • Erfindungsgemäß wurden für die Bestimmung einer präzisen Ungenauigkeitsinformation insbesondere folgende Einflussgrößen identifiziert: Zunächst die Unsicherheit in der Bestimmung des virtuellen Welt-Koordinatensystems, sowie die Unsicherheit in der Kameraparameterbestimmung und die Unsicherheiten in der relativen Positionierung des virtuellen Datenmodells zum virtuellen Welt-Koordinatensystem.
  • Die Bestimmung des virtuellen Welt-Koordinatensystems wird im Allgemeinen auf Grundlage von Daten eines Trackingsystems vorgenommen. Hierzu sind im Stand der Technik verschiedene Trackingsysteme bekannt, die in Verbindung mit Augmented Reality Systemen Verwendung finden. Diese Trackingsysteme basieren zum Beispiel auf optischen, magnetischen oder Trägheits-Sensoren oder auf Kombinationen von ihnen. Ihre Aufgabe innerhalb des Augmented Reality Systems ist die Generierung einer Aussage über die Sicht des Benutzers auf die reale Welt und damit die Bestimmung einer Transformation zwischen einem ausgezeichneten globalen Koordinatensystem und dem virtuellen Welt-Koordinatensystem. Im Falle von z.B. Marker-basiertem optischen Tracking entspricht das globale Koordinatensystem insbesondere dem Kamera-Koordinatensystem, und die bestimmte Transformation führt dieses globale Koordinatensystem in das durch den Marker definierte virtuelle Welt-Koordinatensystem über. Visuelle Informationsanreichungen werden dann auf Basis dieses so definierten virtuellen Welt-Koordinatensystems in der Kameraansicht positioniert.
  • Gemäß einer Ausführungsform der Erfindung wird der Berechnungsprozess unter Verwendung eines Trackingsystems zum Erhalt von Tracking-Information durchgeführt, die dazu dient, wie beschrieben, das Datenmodell an einer bestimmten Position anzuzeigen. Das erfindungsgemäße Verfahren beinhaltet dabei die folgenden Schritte: Verarbeiten von Daten des Trackingsystems, Verarbeiten von Daten einer Kamerakalibrierung, welche Informationen über Kameraparameter der Kamera liefert, sowie Verarbeiten von situationsspezifischen Daten, welche Informationen über die Darstellung des Datenmodells bezüglich eines virtuellen Koordinatensystems, insbesondere des virtuellen Welt-Koordinatensystems und/oder Modell-Koordinatensystems, liefern.
  • Diese Schritte, insbesondere betreffend das Verarbeiten von Daten einer Kamerakalibrierung, können in analoger Weise auch in Bezug auf eine anstelle der Kamera verwendete See-Through-Darstellungsvorrichtung durchgeführt werden, wobei analog Daten einer See-Through-Kalibrierung verarbeitet werden, welche Informationen über Parameter der See-Through-Darstellungsvorrichtung liefern. Mit Hilfe einer solchen Kalibrierung werden in bekannter Weise die Parameter ermittelt, anhand derer das Datenmodell in die See-Through-Darstellungsvorrichtung eingeblendet wird. Diese Parameter spezifizieren insbesondere, wie die Abbildung der realen Umgebung auf der See-Through-Darstellungsvorrichtung, beispielsweise eine semi-transparente Datenbrille, wiedergegeben wird.
  • Es gilt daher das bezüglich einer Kamerakalibrierung bzw. das über Kameraparameter bisher und im folgenden Gesagte in analoger und übertragener Weise auch in Bezug auf eine See-Through-Darstellungsvorrichtung, die anstelle einer Kamera verwendet wird, bzw. deren Kalibrierung.
  • Insbesondere enthalten die Daten des Trackingsystems eine Information über die Messungenauigkeit des Trackingsystems, die Daten der Kamerakalibrierung eine Information über die Messungenauigkeit der Kamerakalibrierung und die situationsspezifischen Daten eine Information über die Ungenauigkeit der Darstellung des Datenmodells bezüglich des virtuellen Koordinatensystems.
  • Gemäß einer weiteren Ausführungsform der Erfindung wird als Ungenauigkeitsinformation eine Information über eine Unsicherheit generiert, welche eine Streuung kennzeichnet. Weiterhin kann eine Ungenauigkeitsinformation generiert werden, die einen Fehlerwert enthält. Damit kann für eine vollständige Angabe des Messergebnisses eine zugehörige Unsicherheit des Ergebnisses angegeben werden. Das mit der Erfindung vorliegende System und Verfahren ermöglicht dabei die vollständige Angabe des Messergebnisses durch die Berechnung der entsprechenden Unsicherheit und des entsprechenden Fehlers.
  • Gemäß einer Weiterbildung der Erfindung kann die Ungenauigkeitsinformation, die durch das erfindungsgemäße Verfahren und System ermittelt wurde, eine Aussage über eine absolute Position eines Punktes, einer Kontur oder einer Fläche des Datenmodells enthalten. Zusätzlich oder alternativ kann die Ungenauigkeitsinformation eine Aussage über eine relative Position eines Punktes, einer Kontur oder einer Fläche des Datenmodells in Bezug auf eine andere Struktur enthalten.
  • Weitere Ausführungsformen und Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • Die Erfindung wird im Folgenden anhand der in der Zeichnung dargestellten Figuren näher erläutert.
  • 1 zeigt eine schematische Übersichtsdarstellung eines Prozesses zur Positionierung eines Datenmodells einer virtuellen Information in einem Augmented Reality System gemäß einer Ausführungsform unter Verdeutlichung der jeweils vorzunehmenden Transformationen,
  • 2 zeigt eine schematische Gegenüberstellung eines Datenmodels einer virtuellen Information in der Ist-Position und in einer Soll-Position, die einem Idealzustand bei der Positionierung des Datenmodells entspricht, sowie deren Abweichung,
  • 3 zeigt eine weitere schematische Darstellung eines Prozesses zur Abbildung eines virtuellen Datenmodells auf eine Bildebene einer Darstellungsvorrichtung und eine Gegenüberstellung einer Ist-Position und einer Soll-Position einer ausgewählten Struktur des Datenmodells und deren Abweichung,
  • 4 ein Flussdiagramm gemäß einer Ausführungsform der Erfindung zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines virtuellen Datenmodells in einem Augmented Reality System in einer Übersichtsdarstellung,
  • 5 zeigt ein detaillierteres Flussdiagramm zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines virtuellen Datenmodells in einem Augmented Reality System gemäß einer Ausführungsform der Erfindung,
  • 6 zeigt eine schematische Übersichtsdarstellung ähnlich zu 1 zur Erläuterung der verwendeten Begriffe „Unsicherheit" und „Fehler".
  • In 1 ist eine schematische Übersichtsdarstellung eines Prozesses zur Positionierung eines Datenmodells einer virtuellen Information in einem Augmented Reality System gemäß einer Ausführungsform gezeigt. Mit einer Kamera wird ein Bild von dem interessierenden Teil der realen Umgebung aufgenommen und beispielsweise auf einer Darstellungsvorrichtung zur Überlagerung mit virtueller Information wiedergegeben. Alternativ kann auch eine bereits beschriebene See-Through-Darstellungsvorrichtung verwendet werden, wobei mittels einer solchen See-Through-Darstellungsvorrichtung das Datenmodell mit wenigstens einem Teil der realen Umgebung vermischt wird. Im folgenden gilt daher das bezüglich einer Kamera Gesagte in analoger und übertragener Weise auch in Bezug auf eine See-Through-Darstellungsvorrichtung, die anstelle einer Kamera verwendet wird. In diesem Zusammenhang wird im allgemeinen nur bei optischem See-Through von See-Through-Kalibrierung gesprochen, da hier tatsächlich der Benutzer über See-Through diese Kalibrierung durchführt. Bei Video See-Through erfolgt die Überlagerung in einem Kamerabild, daher wird in diesem Fall von Kamerakalibrierung gesprochen.
  • Mit 10 ist ein globales Koordinatensystem bezeichnet, das beispielsweise im Falle von Marker-basiertem optischen Tracking, wie oben beschrieben, einem Kamera-Koordinatensystem entspricht. Mit der Bestimmung der Transformation 10-0 (umfassend 3D-Translations- und Rotationskomponenten) bezüglich des globalen Koordinatensystems 10 wird ein virtuelles Welt-Koordinatensystem 20 definiert. Das virtuelle Datenmodell kann dann grundsätzlich auf Basis dieses so definierten virtuellen Welt-Koordinatensystems 20 in der Kameraansicht positioniert werden. In der vorliegenden Ausführungsform wird jedoch zusätzlich noch ein Modell-Koordinatensystem 30 definiert durch eine Transformation 20-0 vom virtuellen Welt-Koordinatensystem 20 in dieses Modell-Koordinatensystem 30. Die Platzierung des Datenmodells wird demnach zusätzlich über die Transformation 20-0 vorgenommen. Für die interessierende Messungenauigkeitsinformation werden durch den Anwender z.B.
  • Punkte oder Konturen im virtuellen Datenmodell ausgewählt, wie beispielsweise Punkt 40 („Point of Interest": POI). Ein solcher Punkt 40 wird relativ zum Modell-Koordinatensystem 30 über die Transformation 30-0 festgelegt.
  • In 2 ist eine schematische Gegenüberstellung eines Datenmodells in der Ist-Position und der Soll-Position dargestellt. Die Genauigkeit der Messaussagen basiert auf der Abweichung zwischen der Ist-Position und der Soll-Position des virtuellen Datenmodells 1 in der Kameraansicht. Hierbei entspricht die Soll-Position der Position, die das Datenmodell 1 in einer perfekt berechneten, die reale Welt also genau abbildenden virtuellen Welt einnehmen würde. Damit ergibt sich die Soll-Position des virtuellen Datenmodells 1 als die Position, die beispielsweise sein reales Gegenstück im Kamerabild einnehmen würde. Eine Abweichung der Ist-Position entsteht durch mit Unsicherheiten behaftete Einflussgrößen im Positionierungsprozess des virtuellen Objekts. Erfindungsgemäß wurden als Einflussgrößen identifiziert:
    • – die Unsicherheit in der Bestimmung des virtuellen Welt-Koordinatensystems,
    • – die Unsicherheit in der Kameraparameterbestimmung,
    • – die Unsicherheiten in der relativen Positionierung des virtuellen Objekts zum virtuellen Welt-Koordinatensystem.
  • Im Zusammenhang mit 1 wird die relative Positionierung des virtuellen Datenmodells dabei vorteilhafterweise durch eine Kette von zwei Transformationen vorgenommen. Über die Definition des Modell-Koordinatensystems 30 relativ zum virtuellen Welt-Koordinatensystem 20 können Koordinatensystemursprung und -Achsausrichtung vorteilhaft festgelegt werden. Die Positionierung des virtuellen Datenmodells erfolgt dann mit Hilfe des Modell-Koordinatensystems 30. Über die Translation 30-0 kann schließlich ein beliebiger Punkt 40 festgelegt werden, für den eine Messung vorgenommen werden soll.
  • Die Unsicherheit in der Bestimmung des virtuellen Welt-Koordinatensystems 20 ist dabei durch einen Fehler 10-1 der Transformation 10-0 und durch eine Unsicherheit 10-2 gekennzeichnet. Weiterhin beinhaltet die Transformation 20-0 einen Fehler 20-1 und eine Unsicherheit 20-2. Weiterhin treten Ungenauigkeiten bei der Transformation 30-0 vom Modell-Koordinatensystem 30 zum interessierenden Punkt 40 auf, insbesondere ein Fehler 30-1 der Transformation 30-0 und eine Unsicherheit 30-2.
  • In 3 ist eine weitere schematische Darstellung eines Prozesses zur Abbildung eines virtuellen Datenmodells auf eine Bildebene einer Darstellungsvorrichtung 4, beispielsweise eines Bildschirms oder einer semi-transparenten Datenbrille gezeigt. Hierbei ist lediglich eine ausgewählte Struktur des Datenmodells in Form des Punkts 40 gezeigt, wobei der Punkt 40 auf einen entsprechenden Punkt 50 in der Bildebene der Darstellungsvorrichtung 4 abgebildet wird. Das entsprechende Augmented Reality System weist eine Einrichtung zur Positionierung und Projektion des Datenmodells auf die Bildebene der Darstellungsvorrichtung 4 auf, wobei die Einrichtung gemäß einer Ausführungsform in Form einer Kamera 2 und in Form einer Datenverarbeitungsvorrichtung 3 ausgebildet ist, die in 3 als einheitlicher Funktionsblock dargestellt sind. Die Datenverarbeitungsvorrichtung 3 dient in dieser Ausführungsform im Zusammenspiel mit der Kamera 2 als ein Mittel zur Berechnung der Ungenauigkeitsinformation, wie sie vom Modul 400 gemäß 4 und 5 ausgegeben wird. Die anhand von 4 und 5 beschriebenen Module sind dazu in entsprechender Weise in der Datenverarbeitungsvorrichtung 3 implementiert. Analoges gilt auch in Bezug auf die Verwendung einer See-Through-Darstellungsvorrichtung im Zusammenspiel mit der Datenverarbeitungsvorrichtung 3.
  • Gemäß 3 ist mit 50-0 die Transformation zur Umwandlung des POI 2D 50 von Millimeter in eine Pixeldarstellung bezeichnet. Aufgrund dieser Transformation 50-0 erhält man den POI 2D in Pixeldarstellung. Diese Transformation 50-0 ist ihrerseits ggf. mit einem Fehler 50-1 behaftet, der auf Fehlerkomponenten der Kamerakalibrierung basiert. Ebenso ist die Transformation 50-0 bzw. der Fehler 50-1 mit einer Unsicherheit 50-2 behaftet, die auf Unsicherheitskomponenten der Kamerakalibrierung basiert. In gleicher Weise ist die Transformation 40-0 zur Projektion des POI 3D 40 in die 2D-Darstellung zum POI 2D 50 mit einem Fehler bzw. einer Unsicherheit behaftet. Die Projektions-Transformation 40-0 basiert dabei auf Komponenten der Kamerakalibrierung. Der Fehler 40-1 der Projektions-Transformation 40-0 basiert auf Fehlerkomponenten der Kamerakalibrierung, während die Unsicherheit 40-2 auf Unsicherheitskomponenten der Kamerakalibrierung basiert. Mit 41, 51 und 61 sind die entsprechenden Soll-Positionen des POI gegenübergestellt. Die Abweichung, die aus der Messungenauigkeitsberechnung gemäß dem erfindungsgemäßen Verfahren angenähert wird, wird auf Pixelebene wiedergegeben und ist in 3 beispielhaft mit 70 (Δx, Δy) bezeichnet.
  • In 4 ist ein Flussdiagramm zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines Datenmodells in einem Augmented Reality System gemäß einer Ausführungsform der Erfindung gezeigt. Das erfindungsgemäße Verfahren wird dabei über ein Messunsicherheitsmodul 400 umgesetzt, welches Daten des verwendeten Trackingsystems 100 mit Daten der Kamerakalibrierung 200 und situationsspezifische Daten 300 verknüpft und so eine Unsicherheitsaussage für die vorliegende Situation bestimmt.
  • Folgende Daten fließen dabei aus den Modulen 100, 200 und 300 in das Messunsicherheitsmodul 400:
    Das externe Trackingsystem 100 liefert Informationen über die aktuelle Sicht auf die Welt:
    • – die ermittelte Transformation 10-0, die das globale Koordinatensystem 10 in das virtuelle Welt-Koordinatensystem 20 überführt,
    • – optional eine Aussage zum Transformations-Fehler 10-1 und
    • – eine Aussage zur Unsicherheit 10-2 dieser Transformation 10-0 bzw. des Fehlers 10-1.
  • Unter Unsicherheit wird hierbei der dem Messergebnis zugeordnete Parameter verstanden, der die Streuung der Werte kennzeichnet, die der Messgröße vernünftigerweise zugeordnet werden können. Der Parameter kann eine Standardabweichung sein oder ein Bereich, der ein festgelegtes Vertrauensniveau hat, wie in der genannten DIN-Norm festgelegt. Als Fehler wird ein Parameter bezeichnet, der beispielsweise Folge eines systematischen Fehlers im externen Trackingsystem sein kann. Beispielsweise wird festgestellt, dass das externe Trackingsystem jeweils Werte liefert, die um einen bestimmten Betrag von der tatsächlichen Position abweichen. Wenn dieser Betrag immer in einer bestimmten Größenordnung sich bewegt, so wird dieser im vorliegenden Fall als Transformationsfehler verarbeitet.
  • Das Modul der Kamerakalibrierung 200 liefert Informationen über die verwendete Kamera:
    • – die ermittelten intrinsischen Kameraparameter, wie beispielsweise die Brennweite,
    • – optional eine Aussage zum Fehler der Parameter und
    • – eine Aussage zur Unsicherheit dieser Parameter bzw. des Fehlers.
  • Die situationsspezifischen Daten des Moduls 300 dienen zur genauen Erfassung der aktuellen Konfiguration, für die eine Unsicherheitsaussage bestimmt werden soll. Sie umfassen:
    • – die Transformation 20-0, die das virtuelle Welt-Koordinatensystem 20 in das Modell-Koordinatensystem 30 überführt,
    • – die Translation 30-0, die den gewählten Punkt 40, für den die Unsicherheitsaussage berechnet werden soll, im Modell-Koordinatensystem 30 beschreibt, sowie
    • – optional Aussagen zu Fehler 20-1 der Transformation 20-0 und Fehler 30-1 der Translation 30-0.
    • – Aussagen zur Unsicherheit 20-2 dieser Transformation 20-0 bzw. des Fehlers 20-1 und zur Unsicherheit 30-2 dieser Translation 30-0 bzw. des Fehlers 30-1.
  • Die situationsspezifischen Daten des Moduls 300 werden dabei z.B. vom Benutzer spezifiziert.
  • Die Parametrierung der Module 100, 200 und 300 erlaubt es, die vorliegende Situation detailliert zu beschreiben und damit die Aussage zur Messunsicherheit genau für die beschriebene Konfiguration zu treffen. Grundsätzlich können hierzu für das Messunsicherheitsmodul 400 zwei Konfigurationen unterschieden werden:
    In einer ersten Konfiguration wird die Messunsicherheit für einen gewählten Punkt (allgemein für eine gewählte Struktur) bestimmt. Für diese Konfiguration sind die Parameter entsprechend der oben aufgeführten Listen anzugeben. Die Ausgabe des Moduls 400 umfasst in der vorliegenden Ausführungsform den Messfehler an dem Punkt 40, der durch die Angaben im Modul 300 beschrieben wird, und seine zugehörige Messunsicherheit. Mit Hilfe dieses Ergebnisses kann ein Vertrauensintervall bestimmt werden, in dem sich der gewählte Punkt mit einer bestimmten Wahrscheinlichkeit befindet. Dementsprechend wird eine Aussage über eine absolute Position des Punktes 41 generiert, der Soll-Position des Punktes 40.
  • In einer zweiten Konfiguration erfolgt die Bestimmung der Messunsicherheit beispielsweise zwischen zwei Punkten. In diesem Fall muss die Eingabe des Moduls 300 für jeden der zwei Punkte vorgenommen werden. Die Ausgabe des Moduls 400 entspricht dem Messfehler zwischen den zwei definierten Punkten und der zugehörigen Messunsicherheit. Es liegt damit eine Aussage zu Fehler und Unsicherheit der relativen Position (des Abstandes) zwischen den Punkten vor. Wie bei der erstgenannten Konfiguration kann auch hier ein Vertrauensintervall aus den gegebenen Daten definiert werden.
  • In 5 ist ein detaillierteres Flussdiagramm zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines Datenmodells in einem Augmented Reality System gemäß einer Ausführungsform der Erfindung gezeigt. Die Ungenauigkeitsinformation wird dabei in Form einer Unsicherheitsaussage 600 des Moduls 400 zur Messunsicherheitsberechnung ausgegeben. Hierbei wird die Unsicherheitsaussage 600 im wesentlichen über folgende Propagationsschritte bestimmt: Es wird zunächst eine Positionierungsungenauigkeits-Information für wenigstens eine ausgewählte Struktur des Datenmodells im dreidimensionalem Raum bestimmt. Dieser Propagationsschritt wird auch als Propagation im 3D-Raum zur gewählten Struktur bezeichnet. Dies wird insbesondere im Modul 400-1 vorgenommen. Anschließend erfolgt eine Projektion der Positionierungsungenauigkeits-Information der ausgewählten Struktur des Datenmodells in die Bildebene. Dies wird insbesondere im Modul 400-2 vorgenommen.
  • Insbesondere werden zur Bestimmung der Positionierungsungenauigkeits-Information im dreidimensionalen Raum Daten wie die Unsicherheit 10-2 und der Fehler 10-1 des Trackingsystems 100 verarbeitet, die eine Information über die Messungenauigkeit des Trackingsystems enthalten. Weiterhin werden situationsspezifische Daten 300, die eine Information über die Ungenauigkeit der Darstellung des Datenmodells bezüglich des virtuellen Koordinatensystems 20, 30 enthalten, verarbeitet.
  • Zur näheren Beschreibung dieser Vorgänge und vorteilhafter Ausprägungen wird im Folgenden nun eine vorteilhafte Implementierung des Moduls 400 zur Messunsicherheitsberechnung beschrieben. Der Ausgangsfehler des Trackingsystems 100 und seine Varianz werden im Rahmen der Berechnung über mehrere Schritte weiterpropagiert. In jedem Fall wird dabei nach dem gleichen Prinzip vorgegangen (Prinzip der Fehler- und Unsicherheitspropagation):
    Ausgangspunkt ist die Abbildung für den aktuellen Propagationsschritt unter Zugrundelegung einer Abbildungsfunktion f. Diese Funktion bildet im jedem Propagationsschritt eine Struktur P ab auf p'. Im perfekten Fall – ohne jeglichen Einfluss von Unsicherheit – ist diese Abbildung
    Figure 00160001
    wobei x2 ... xk weitere Variablen (Variablenvektoren) darstellen, die die jeweilige Propagation beeinflussen. Da jede Variable jedoch mit einem Fehler e behaftet ist, ergibt sich die veränderte Abbildung
    Figure 00160002
    Damit lässt sich der Fehler für den jeweiligen gesamten Propagationsschritt angeben als
    Figure 00160003
  • Es werden dabei zwei Fälle unterschieden:
    Ist in einem ersten Fall ein Fehler vorhanden, so ist die Unsicherheit j0-2 die Unsicherheit des Fehlers j0-1 (gemäß Ausführungsbeispiel jeweils mit j = 1, ..., 5):
    Figure 00160004
  • Die Propagation der Fehlerkovarianz im dreidimensionalen Raum ergibt sich durch folgende Summe:
    Figure 00160005
    mit Ci Kovarianzmatrizen für die Variablenvektoren
    Figure 00160006
    und
    Figure 00160007
    entsprechende Jacobimatrizen.
  • Da in den vorangehenden Formeln davon ausgegangen wird, dass Fehler gegeben sind, werden hier die Kovarianzen der Fehler verrechnet.
  • Ist in einem zweiten Fall kein Fehler vorhanden, so ist die Unsicherheit j0-2 die Unsicherheit der Transformation j0-0 (mit jeweils j = 1, ..., 5): p' = f(x1, x2, ..., xk) = f(p, x2, ..., xk)
  • Die Propagation der Fehlerkovarianz im dreidimensionalen Raum ergibt sich dann durch folgende Summe:
    Figure 00170001
    mit Ci Kovarianzmatrizen für die Variablenvektoren xi
    und
    Figure 00170002
    entsprechende Jacobimatrizen.
  • Die jeweilige Unsicherheit j0-2, wie oben angegeben, bezeichnet somit stets die Unsicherheit der jeweiligen Transformation j0-0, sofern kein zugehöriger Fehler j0-1 angegeben oder verarbeitet wird. Ist jedoch ein zugehöriger Fehler j0-1 angegeben, so bezieht sich die jeweilige Unsicherheit j0-2 auf den jeweiligen Fehler j0-1.
  • Diese zwei Möglichkeiten werden insbesondere auch im Zusammenhang mit 6 anschaulich. Der Fehler kann nur bestimmt werden, wenn der tatsächliche Wert für die Messung bekannt ist, im vorliegenden Fall insbesondere die Pose des virtuellen Welt-Koordinatensystems. Ist dieser tatsächliche Wert bekannt, so kann für jede Messung eine Abweichung bestimmt werden und daraus Fehlerdurchschnitt und Varianz (10-1 und 10-2).
  • Im folgenden sind die Formeln zur Bestimmung von Erwartungswert (Fehlerdurchschnitt) ε und Kovarianzmatrix C (z.B. aus der bereits genannten DIN-Norm) angegeben:
    Figure 00170003
    mit p tatsächlich / k als tatsächlichen Poseneintrag, p Tracking / k als den durch das Trackingsystem bestimmten Poseneintrag und n als der Anzahl der Messungen.
  • Kovarianzmatrix ist C = σij mit
    Figure 00180001
    wobei Δpk = (Δpk (1), Δpk (2), Δpk (3), ...) und ε = (ε(1), ε(2), ε(3), ε(4), ...) mit Poseneinträgen für die unterschiedlichen Translationen (1), (2), (3) und Rotationen (4), (5), (6) (und evtl. (7) falls in Form von Quaternion).
  • Ist der tatsächliche Poseneintrag aber nicht bekannt, so können Durchschnittswert und Varianz nur für die Pose direkt bestimmt werden.
  • Das globale Koordinatensystem entspricht beispielsweise dem Ursprung der Kamera. Durch den Marker definiert der Benutzer ein „tatsächliches" virtuelles Welt-Koordinatensystem. Das Trackingsystem erkennt den Marker, gibt jedoch eine Transformation 10-0 zurück, die nicht ganz korrekt ist. Sie beschreibt das virtuelle Welt-Koordinatensystem 20, das für die weiteren Berechnungen verwendet wird. Den Fehler 10-1 der die Abweichung zwischen 20 und dem tatsächlichen virtuellen Welt-Koordinatensystem beschreibt kann nicht immer bestimmt werden (vgl. obige Ausführungen).
  • Hierbei umfassen die Variablenvektoren jeweils einen Satz zusammengehöriger Parameter, die (stochastisch) voneinander abhängig sind und eine gemeinsame Kovarianzmatrix besitzen. Nähere Informationen hierzu finden sich in der bereits genannten DIN-Norm und, mit ausschließlichem Bezug auf Berechnungsvorgänge innerhalb eines Trackingsystems, in „Analysis of Head Pose Accuracy in Augmented Reality", William Hoff and Tyrone Vincent, IEEE Transactions on Visualization and Computer Graphics, Vol. 6, No. 4, 2000.
  • Gemäß der vorliegenden Erfindung sind zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines virtuellen Datenmodells in einem Augmented Reality System die einzelnen Propagationsschritte:
    • – Propagation im 3D-Raum zur ausgewählten Struktur (Punkt, Kontur oder Fläche),
    • – Projektion nach 2D,
    • – Verzerrung,
    • – Umwandlung in Pixel.
  • Für die Propagation im 3D-Raum werden der Ausgangsfehler und seine Ausgangsunsicherheit aus dem Modul 100 des Trackingsystems mit den vom Benutzer spezifizierten Unsicherheiten der relativen Position der interessierenden 3D-Struktur (zum Beispiel Punkt 40 gemäß 3) im virtuellen Koordinatensystem 20, 30, die aus dem Modul 300 geliefert werden, nach obigem allgemein beschriebenen Prinzip verknüpft. Damit wird der Positionsfehler für die gewünschte 3D-Struktur, d.h. im vorliegenden Fall für den gewünschten 3D-Punkt 40, und die zugehörige Unsicherheit bestimmt.
  • Im vorliegenden Ausführungsbeispiel ergibt sich beispielhaft der Fehler im 3D-Raum für den Punkt 40 aus den Transformationen vom globalen Koordinatensystem 10 bis zum POI 40 und den zugehörigen Fehlern. Mithin sind die folgenden einzelnen Propagationsschritte, wobei sich die Abbildungsfunktionen f1 bis f3 für den jeweiligen Propagationsschritt unterscheiden können: e40 = f1(10-0, 10-1, 20-0, 20-1, 30-0, 30-1) – 40
  • Der Punkt 40 wird dabei vom Benutzer ausgewählt, beispielsweise durch Anklicken der entsprechenden Position.
  • Die Kovarianzmatrix des Fehlers wird durch gewichtete Aufsummierung der Kovarianzen der einzelnen Fehler berechnet. C40 = J10-1C1J T / 10-1 + J T / 20-1C2J T / 20-1 + J30-1C3J30-1T mit C1 = 10-2, C2 = 20-2, C3 = 30-2 und
    Figure 00200001
  • Im nächsten Propagationsschritt werden Fehler und Unsicherheit (allgemein als Positionierungsungenauigkeits-Information bezeichnet) des 3D Punktes in die Bildebene projiziert unter Berücksichtigung der mit Unsicherheit behafteten intrinsischen Kameraparameter. Hierbei fließen sowohl durch die Projektion selbst als auch durch den anschließenden Verzerrungsprozess Unsicherheiten in die Propagation ein: e50 = f2(40, e40, 40-0, 40-1) – 50
    Figure 00200002
  • Schließlich wird in einem letzten Propagationsschritt die Umwandlung in Pixel vorgenommen wieder unter Einbeziehung der unsicheren Kameraparameter. e60 = f3(50, e50, 50-0, 50-1 – 60
    Figure 00200003
  • Dieser Schritt spiegelt die Messung auf Pixelebene wieder, denn die für die Messaussage manuell gewählten Strukturen können nur pixelgenau positioniert werden. Daher wird die Abweichung, die sich durch den propagierten Fehler und seine Unsicherheit für den gewählten Punkt ergibt, auf ganze Pixel gerundet.
  • Die Angabe der finalen Unsicherheit setzt sich aus dem propagierten Fehler e60 und der zugehörigen Unsicherheit C60 in Form der Standardabweichung zusammen.
  • Das Modul Messunsicherheitspräsentation im Modul 500 (4) erfüllt eine vorteilhafte Zusatzfunktionalität des Systems und Verfahrens gemäß der Er findung. Um eine benutzergerechte Messaussage zu liefern, wird das finale Ergebnis der Unsicherheitsberechnung im diesem Modul von einer pixelbasierten Angabe in eine Millimeter-basierte Angabe umgewandelt. Aus der auf Pixelebene berechneten Abweichung und Unsicherheit wird über eine Rückprojektion in den 3D-Raum eine Aussage für die ursprünglich gewählte 3D-Struktur generiert, z.B. mit Maßangaben entsprechend dem realen 3D-Raum. Dieser Prozessschritt ist nicht mehr Teil der eigentlichen Unsicherheitspropagierung sondern stellt eine anwendungsspezifische Erweiterung des beschriebenen Systems und Verfahrens dar, die die berechneten Daten benutzerverständlicher präsentiert.

Claims (21)

  1. Verfahren zur Bestimmung einer Ungenauigkeitsinformation (600) bei der Positionierung eines Datenmodells (1) einer virtuellen Information in einem Augmented Reality System, bei welchem das Datenmodell (1) auf die Bildebene einer Darstellungsvorrichtung (4) projiziert wird zur Vermischung mit Seheindrücken einer realen Umgebung, wobei die Ungenauigkeitsinformation aus Parametern (10-0 bis 50-2, 40, 50, 60) in einem Abbildungs-Berechnungsprozess berechnet wird, anhand dessen das Datenmodell (1) auf die Bildebene der Darstellungsvorrichtung (4) projiziert wird.
  2. Verfahren nach Anspruch 1, wobei mit einer Kamera (2, 3) ein Bild von wenigstens einem Teil der realen Umgebung aufgenommen wird und der Berechnungsprozess unter Verwendung eines Trackingsystems (100) zum Erhalt von Tracking-Information (10-0, 10-1, 10-2) durchgeführt wird, die dazu dient, das Datenmodell (1) an einer bestimmten Position im Bild anzuzeigen, und das Verfahren die folgenden Schritte beinhaltet: – Verarbeiten von Daten des Trackingsystems (100), – Verarbeiten von Daten einer Kamerakalibrierung (200), welche Informationen über Kameraparameter der Kamera liefert, – Verarbeiten von situationsspezifischen Daten (300), welche Informationen über die Darstellung des Datenmodells (1) bezüglich eines virtuellen Koordinatensystems (20, 30) liefern.
  3. Verfahren nach Anspruch 1, wobei mittels einer See-Through-Darstellungsvorrichtung (4) das Datenmodell (1) mit wenigstens einem Teil der realen Umgebung vermischt wird und der Berechnungsprozess unter Verwendung eines Trackingsystems (100) zum Erhalt von Tracking-Information (10-0, 10-1, 10-2) durchgeführt wird, die dazu dient, das Datenmodell (1) an einer bestimmten Position in der Darstellungsvorrichtung anzuzeigen, und das Verfahren die folgenden Schritte beinhaltet: – Verarbeiten von Daten des Trackingsystems (100), – Verarbeiten von Daten einer See-Through-Kalibrierung (200), welche Informationen über Parameter der See-Through-Darstellungsvorrichtung (4) liefert, – Verarbeiten von situationsspezifischen Daten (300), welche Informationen über die Darstellung des Datenmodells (1) bezüglich eines virtuellen Koordinatensystems (20, 30) liefern.
  4. Verfahren nach Anspruch 2 oder 3, wobei – die Daten des Trackingsystems (100) eine Information über die Messungenauigkeit (10-1, 10-2) des Trackingsystems enthalten, – die Daten der Kamerakalibrierung (200) oder See-Through-Kalibrierung eine Information über die Messungenauigkeit der Kamerakalibrierung bzw. der See-Through-Kalibrierung enthalten und – die situationsspezifischen Daten (300) eine Information über die Ungenauigkeit der Darstellung des Datenmodells bezüglich des virtuellen Koordinatensystems enthalten.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Ungenauigkeitsinformation (600) eine Information über eine Unsicherheit enthält, welche eine Streuung kennzeichnet.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Ungenauigkeitsinformation (600) einen Fehlerwert enthält.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Ungenauigkeitsinformation (600) über folgende Propagationsschritte bestimmt wird: – Bestimmung (400-1) einer Positionierungsungenauigkeits-Information für wenigstens eine ausgewählte Struktur (40) des Datenmodells (1) im dreidimensionalen Raum, – Projektion (400-2) der Positionierungsungenauigkeits-Information der ausgewählten Struktur (40) des Datenmodells in die Bildebene (4).
  8. Verfahren nach Anspruch 7, wobei zur Bestimmung (400-1) der Positionierungsungenauigkeits-Information im dreidimensionalen Raum Daten (10-1, 10-2) eines Trackingsystems (100), die eine Information über eine Messungenauigkeit des Trackingsystems enthalten, und situationsspezifische Daten (300), die eine Information über eine Ungenauigkeit der Darstellung des Datenmodells (1) bezüglich eines virtuellen Koordinatensystems (20, 30) enthalten, verarbeitet werden.
  9. Verfahren nach Anspruch 7 oder 8, wobei die Projektion (400-2) der Positionierungsungenauigkeits-Information der ausgewählten Struktur (40) des Datenmodells in die Bildebene (4) unter Berücksichtigung von intrinsischen Kameraparametern oder unter Berücksichtigung von Parametern einer See-Through-Darstellungsvorrichtung erfolgt.
  10. Verfahren nach einem der Ansprüche 7 bis 9, wobei nach der Projektion (400-2) der Positionierungsungenauigkeits-Information in die Bildebene ein Propagationsschritt (400-3) zur Berücksichtigung eines Verzerrungsprozesses bei der Projektion der Positionierungsungenauigkeits-Information durchgeführt wird.
  11. Verfahren nach einem der Ansprüche 7 bis 10, wobei in einem Propagationsschritt (400-4) eine Umwandlung der projizierten Positionierungsungenauigkeits-Information in eine Pixel-Darstellung vorgenommen wird.
  12. Verfahren nach einem der Ansprüche 7 bis 11, wobei – Tracking-Informationen (100) verarbeitet werden, die Daten über eine Unsicherheit (10-2) der Tracking-Informationen enthalten, – Kalibrierdaten (200) einer Kamerakalibrierung oder See-Through-Kalibrierung verarbeitet werden, die Daten über eine Unsicherheit von Kameraparametern bzw. von Parametern einer See-Through-Darstellungsvorrichtung enthalten, und – situationsspezifische Daten (300) verarbeitet werden, die Daten über eine Unsicherheit (20-2, 30-2) der Darstellung des Datenmodells (1) bezüglich eines virtuellen Koordinatensystems (20, 30) enthalten.
  13. Verfahren nach einem der Ansprüche 7 bis 12, wobei die Positionierungsungenauigkeits-Information (600) eine Information über eine Messunsicherheit enthält, welche eine Streuung kennzeichnet.
  14. Verfahren nach einem der Ansprüche 7 bis 13, wobei die Positionierungsungenauigkeits-Information (600) einen Positionierungsfehler enthält.
  15. Verfahren nach einem der Ansprüche 1 bis 14, wobei eine aufbereitete Ungenauigkeitsinformation (500) über eine Rückprojektion der Ungenauigkeitsinformation (600) in den dreidimensionalen Raum generiert wird.
  16. Verfahren nach einem der Ansprüche 1 bis 15, wobei die Ungenauigkeitsinformation (600) eine Aussage über eine absolute Position eines Punktes (41, 51, 61), einer Kontur oder einer Fläche des Datenmodells (1) enthält.
  17. Verfahren nach einem der Ansprüche 1 bis 16, wobei die Ungenauigkeitsinformation (600) eine Aussage über eine relative Position eines Punktes (40, 50, 60), einer Kontur oder einer Fläche des Datenmodells (1) in Bezug auf eine andere Struktur enthält.
  18. Verfahren nach einem der Ansprüche 1 bis 17, wobei das Verfahren die folgenden Schritte umfasst: – Bereitstellen von Tracking-Informationen (100) zur Definition eines virtuellen Koordinatensystems (20, 30), auf dessen Grundlage das Datenmodell (1) auf die Bildebene der Darstellungsvorrichtung (4) projiziert wird, wobei das virtuelle Koordinatensystem (20, 30) über eine Transformation (10-0) bezüglich eines globalen Bezugskoordinatensystems (10) eines Trackingsensors bestimmt wird, – Bereitstellen von Kalibrierdaten (200) zur Bereitstellung von intrinsischen Kameraparametern einer Kamera oder von Parametern einer See-Through-Darstellungsvorrichtung, – Bereitstellen von situationsspezifischen Daten (300), welche Informationen über die Darstellung des Datenmodells (1) bezüglich des virtuellen Koordinatensystems (20, 30) liefern unter Bereitstellung einer Translationsinformation (30-0), welche eine ausgewählte Struktur (40) des Datenmodells, für welche eine Ungenauigkeitsinformation generiert werden soll, in dem virtuellen Koordinatensystem (20, 30) beschreibt.
  19. Verfahren nach Anspruch 18, wobei – die Tracking-Informationen (100) Daten über einen Fehler (10-1) der Transformation (10-0) enthalten und/oder – die Kalibrierdaten (200) Daten über einen Fehler der intrinsischen Kameraparameter bzw. der Parameter der See-Through-Darstellungsvorrichtung enthalten und/oder – die situationsspezifischen Daten (300) Daten über einen Fehler (20-1, 30-1) der Translationsinformation (30-0) enthalten.
  20. Verfahren nach Anspruch 18 oder 19, wobei – die Tracking-Informationen (100) Daten über eine Unsicherheit (10-2) der Transformation (10-0) oder eines zugehörigen Fehlers (10-1) enthalten, – die Kalibrierdaten (200) Daten über eine Unsicherheit der intrinsischen Kameraparameter bzw. der Parameter der See-Through-Darstellungsvorrichtung oder eines zugehörigen Fehlers enthalten und – die situationsspezifischen Daten (300) Daten über eine Unsicherheit (20-2, 30-2) der Translationsinformation (30-0) oder eines zugehörigen Fehlers (30-1) enthalten.
  21. System zur Bestimmung einer Ungenauigkeitsinformation bei der Positionierung eines Datenmodells (1) einer virtuellen Information in einem Augmented Reality System, umfassend – eine Einrichtung (2, 3) zur Positionierung und Projektion des Datenmodells (1) auf die Bildebene einer Darstellungsvorrichtung (4) und zur Überlagerung mit Seheindrücken einer realen Umgebung, – eine Einrichtung (2, 3) zur Berechnung der Ungenauigkeitsinformation (600) aus Parametern (10-0 bis 50-2, 40, 50, 60) in einem Abbildungs-Berechnungsprozess, anhand dessen das Datenmodell (1) auf die Bildebene der Darstellungsvorrichtung (4) projiziert wird.
DE102005061952A 2005-12-23 2005-12-23 Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System Active DE102005061952B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102005061952A DE102005061952B4 (de) 2005-12-23 2005-12-23 Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
JP2006342145A JP4484863B2 (ja) 2005-12-23 2006-12-20 拡張現実感システムにおける不正確情報を決定する方法及びシステム
US11/614,155 US7768534B2 (en) 2005-12-23 2006-12-21 Method of and system for determining inaccuracy information in an augmented reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005061952A DE102005061952B4 (de) 2005-12-23 2005-12-23 Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System

Publications (2)

Publication Number Publication Date
DE102005061952A1 true DE102005061952A1 (de) 2007-06-28
DE102005061952B4 DE102005061952B4 (de) 2008-09-11

Family

ID=38108822

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005061952A Active DE102005061952B4 (de) 2005-12-23 2005-12-23 Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System

Country Status (3)

Country Link
US (1) US7768534B2 (de)
JP (1) JP4484863B2 (de)
DE (1) DE102005061952B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007033486A1 (de) 2007-07-18 2009-01-22 Metaio Gmbh Verfahren und System zur Ermittlung der Position und Orientierung einer Kamera relativ zu einem realen Objekt
DE102009049849A1 (de) * 2009-10-19 2011-04-21 Metaio Gmbh Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung
EP2800996A4 (de) * 2012-01-06 2015-08-19 Blackberry Ltd System und verfahren zur ausrichtung einer kamera
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US8218873B2 (en) 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
WO2009110417A1 (ja) * 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
KR101598579B1 (ko) * 2009-03-03 2016-02-29 삼성전자주식회사 안내정보를 제공하는 사용자 인터페이스 장치 및 안내정보 제공 방법
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
GB0915589D0 (en) * 2009-09-07 2009-10-07 Sony Comp Entertainment Europe Image processing method, apparatus and system
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
WO2011106520A1 (en) 2010-02-24 2011-09-01 Ipplex Holdings Corporation Augmented reality panorama supporting visually impaired individuals
ES2383976B1 (es) * 2010-12-03 2013-05-08 Alu Group, S.L. Método para el probado virtual de calzado.
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
JP5620343B2 (ja) * 2011-06-20 2014-11-05 日本電信電話株式会社 物体座標系変換装置、物体座標系変換方法、及び物体座標系変換プログラム
CN103959308B (zh) 2011-08-31 2017-09-19 Metaio有限公司 以参考特征匹配图像特征的方法
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
CN104221031B (zh) 2011-11-18 2019-06-11 苹果公司 将影像特征与参考特征相匹配之方法及其所用集成电路
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
JP6131950B2 (ja) * 2012-06-12 2017-05-24 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9361730B2 (en) 2012-07-26 2016-06-07 Qualcomm Incorporated Interactions of tangible and augmented reality objects
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
EP2936443A1 (de) * 2012-12-21 2015-10-28 Metaio GmbH Verfahren zur darstellung von virtuellen information in einer realen umgebung
EP2770783B1 (de) 2013-02-21 2018-06-20 Apple Inc. Tragbares Informationssystem mit mindestens einer Kamera
US8922589B2 (en) 2013-04-07 2014-12-30 Laor Consulting Llc Augmented reality apparatus
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN105745586B (zh) * 2014-01-17 2018-04-03 株式会社日立制作所 作业辅助用数据生成程序
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
WO2016114930A2 (en) * 2015-01-12 2016-07-21 Pcms Holdings, Inc. Systems and methods for augmented reality art creation
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US10142596B2 (en) 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist
US20170169612A1 (en) 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US11250947B2 (en) * 2017-02-24 2022-02-15 General Electric Company Providing auxiliary information regarding healthcare procedure and system performance using augmented reality
US10740613B1 (en) 2017-04-20 2020-08-11 Digimarc Corporation Hybrid feature point/watermark-based augmented reality
WO2019055679A1 (en) 2017-09-13 2019-03-21 Lahood Edward Rashid METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION
DE102017220268B4 (de) * 2017-11-14 2024-03-21 Volkswagen Aktiengesellschaft Erkennung und Visualisierung von Systemunsicherheit bei der Darstellung augmentierter Bildinhalte in Head-Up-Displays
EP3561773B1 (de) * 2018-04-26 2022-03-02 Continental Automotive GmbH Online-auswertung für kameraeigene parameter
WO2021160294A1 (en) * 2020-02-14 2021-08-19 Brainlab Ag Compensation of tracking inaccuracies
DE102020211507A1 (de) * 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bewerten einer Kamerakalibrierung
DE102020211502A1 (de) * 2020-09-14 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bewerten einer Kamerakalibrierung
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10127396A1 (de) 2000-06-13 2001-12-20 Volkswagen Ag Verfahren zum Verwerten eines Altfahrzeugs
CA2556082A1 (en) * 2004-03-12 2005-09-29 Bracco Imaging S.P.A. Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Georg Klein, Tom Drummond: "Robust Visual Tracking for Non-Instrumented Augmented Reality, ISMAR'03, 2003, Original-Seiten 113-122, S.1-10 + Biblio- graphie + Publications,http://www.robots.ox.ac.uk/ ~gk/publications/
Georg Klein, Tom Drummond: "Robust Visual Tracking for Non-Instrumented Augmented Reality, ISMAR'03,2003, Original-Seiten 113-122, S.1-10 + Biblio- graphie + Publications,http://www.robots.ox.ac.uk/ APPROX gk/publications/ *
Ronald T. Azuma: "A Survey of Augmented Reality", Hughes Research Laboratories (1995), S.1-40 + Bib- liographie,http://citeseer.ist.psu.edu/azuma95sur- vey,html
Ronald T. Azuma: "A Survey of Augmented Reality", Hughes Research Laboratories (1995), S.1-40 + Bib-liographie,http://citeseer.ist.psu.edu/azuma95sur-vey,html *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007033486A1 (de) 2007-07-18 2009-01-22 Metaio Gmbh Verfahren und System zur Ermittlung der Position und Orientierung einer Kamera relativ zu einem realen Objekt
DE102009049849A1 (de) * 2009-10-19 2011-04-21 Metaio Gmbh Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung
US10062169B2 (en) 2009-10-19 2018-08-28 Apple Inc. Method of providing a descriptor for at least one feature of an image and method of matching features
US10229511B2 (en) 2009-10-19 2019-03-12 Apple Inc. Method for determining the pose of a camera and for recognizing an object of a real environment
US10580162B2 (en) 2009-10-19 2020-03-03 Apple Inc. Method for determining the pose of a camera and for recognizing an object of a real environment
US10650546B2 (en) 2009-10-19 2020-05-12 Apple Inc. Method of providing a descriptor for at least one feature of an image and method of matching features
DE102009049849B4 (de) * 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
EP2800996A4 (de) * 2012-01-06 2015-08-19 Blackberry Ltd System und verfahren zur ausrichtung einer kamera
US9602718B2 (en) 2012-01-06 2017-03-21 Blackberry Limited System and method for providing orientation of a camera
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor

Also Published As

Publication number Publication date
US7768534B2 (en) 2010-08-03
US20070146391A1 (en) 2007-06-28
DE102005061952B4 (de) 2008-09-11
JP4484863B2 (ja) 2010-06-16
JP2007172621A (ja) 2007-07-05

Similar Documents

Publication Publication Date Title
DE102005061952B4 (de) Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE102009058802B4 (de) Anordnung zur kombinierten Darstellung eines realen und eines virtuellen Modells
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102005037841B4 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
EP2977961B1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
DE102007048857A1 (de) Verfahren zur Erzeugung und/oder Aktualisierung von Texturen von Hintergrundobjektmodellen, Videoüberwachungssystem zur Durchführung des Verfahrens sowie Computerprogramm
DE69725953T2 (de) Bildanzeigeverfahren und -gerät
EP2325725A1 (de) Verfahren zum reduzieren eines effekts auf virtuelle objekte
DE102015209143A1 (de) Verfahren zur Bestimmung einer Abbildungsvorschrift und bildgestützten Navigation sowie Vorrichtung zur bildgestützten Navigation
DE102016203377A1 (de) Laserprojektionssystem mit Videoüberlagerung
DE102014225409A1 (de) Abgesetztes Hilfsgerät zum Generieren spezifisch angepasster und synchronisierter Referenznotizen für ein programmierbares Metrologiesystem
EP2238521B1 (de) Verfahren und vorrichtung zur visualisierung einer automatisierungstechnischen anlage mit einem werkstück
DE102014104514B4 (de) Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
DE102020001882A1 (de) Visualisierungsvorrichtung und Programm
EP4016061B1 (de) Verfahren zur bedienung eines röntgen-systems
DE102020204677B4 (de) Trackingsystem und Computerprogramm zur Kompensation von Sichtschatten bei der Nachverfolgung von Messobjekten
DE102014219418B4 (de) Verfahren zur Stereorektifizierung von Stereokamerabildern und Fahrerassistenzsystem
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
EP4068198B1 (de) Verfahren zur erzeugung eines bilds eines objekts, computerprogrammprodukt und bilderzeugungssystem zur durchführung des verfahrens
DE102021100653B3 (de) Verfahren und Vorrichtungen zum Registrieren von Koordinatensystemen von zumindest zwei Anzeigegeräten für virtuelle Objekte, Computerprogramm zur Durchführung eines solchen Verfahrens, sowie Anzeigegerät
DE102020134680B4 (de) Verfahren und Anordnung zur Qualitätsprüfung eines Objekts
DE112010005480T5 (de) Bild zeichnende Vorrichtung und Bild zeichnendes Verfahren
DE102015120927A1 (de) Verfahren zur Darstellung einer Simulationsumgebung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R082 Change of representative

Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R081 Change of applicant/patentee

Owner name: APPLE INC., CUPERTINO, US

Free format text: FORMER OWNER: METAIO GMBH, 85748 GARCHING, DE

R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE