DE202014011540U1 - System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille - Google Patents

System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille Download PDF

Info

Publication number
DE202014011540U1
DE202014011540U1 DE202014011540.0U DE202014011540U DE202014011540U1 DE 202014011540 U1 DE202014011540 U1 DE 202014011540U1 DE 202014011540 U DE202014011540 U DE 202014011540U DE 202014011540 U1 DE202014011540 U1 DE 202014011540U1
Authority
DE
Germany
Prior art keywords
marker
until
video glasses
carrier
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014011540.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersight GmbH
Original Assignee
Immersight GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersight GmbH filed Critical Immersight GmbH
Priority to DE202014011540.0U priority Critical patent/DE202014011540U1/de
Publication of DE202014011540U1 publication Critical patent/DE202014011540U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Videobrille mit wenigstens einer elektronischen Bildanzeige, wobei die Bildanzeige einem Auge zugeordnet ist, dadurch gekennzeichnet, dass die Videobrille mindestens eine Messeinrichtung umfasst.

Description

  • Die vorliegende Erfindung betrifft eine Videobrille gemäß Oberbegriff von Anspruch 1 und ein System, insbesondere zur Darbietung einer Blickfelddarstellung gemäß Oberbegriff von Anspruch 16.Mit dem System gemäß der Erfindung kann eine bestimmbare, gegenständliche Lage als ein räumlich veränderbares Blickfeld in eine computergenerierte Ansicht eines Raumabbilds, z. B. eines virtuellen Raums, einbezogen werden.
  • Stand der Technik
  • Aus dem Gebiet der Visualisierungstechnik, insbesondere im Bereich der sogenannten virtuellen Realität, sind bereits verschiedene Vorgehensweisen bekannt, mit denen z. B. eine Körperposition erfasst werden kann, um die daraus gewonnenen Daten z. B. für eine Computersimulation heranzuziehen. In dem Dokument GB 2 451 461 A (Anmelder: Naven Shavla; Anmeldetag: 28.07.2007) ist ein System beschrieben, bei dem eine Person, die einen Marker auf dem Kopf trägt und jeweils einen Stab in einer Hand hält, gleichzeitig von zwei oder mehr Kameras erfasst wird. Damit soll eine dreidimensionale Mensch-Computer-Interaktion ermöglicht werden. An den Stäben ist jeweils eine Schalteinheit angebracht, um dem System Schaltsignale zuzuführen. Aufgrund der erforderlichen zwei Kameras ist die bei der Bildauswertung zu bewältigende Datenmenge in der Regel sehr hoch und die Auswertung der Daten entsprechend zeitintensiv.
  • Eine andersartiges Verfahren mit Apparat, bei dem nur eine Kamera zum Einsatz kommt, wird in Dokument US 4 884 219 (Inhaber: W. Industries Ltd.; Prioritätstag: 21.01.1987) beschrieben. Auch dabei soll die Erscheinung von computergenerierten Bildern durch einen Benutzer beeinflusst werden. Die Bewegung der Augen des Benutzers wird erfasst und zu einem Computer übertragen. Weiterhin sollen auch Änderungen der Orientierung des Kopfes zur Auswertung kommen, wobei die Kopfposition mittels elektrischer Felder von einer Anordnung von Spulen an einem Helm bestimmt wird.
  • Für die Erfassung einer Körperform z. B. eines menschlichen Körpers, wird in dem Dokument US 2012/0 095 589 A1 (Erfinder: Arcadiy Vapnik; Anmeldetag: 17.10.2011) die Verwendung eines Ganzkörperkostüms, über das Marker verteilt sind, vorgeschlagen. Hierbei kommen weiße Marker zum Einsatz, die auf das Kostüm aufgedruckt sind. Der Kostümträger wird von einer Kamera bei seinen Bewegungen gefilmt und anhand der Kamerabilder werden 3D-Koordinaten des Körpers bestimmt und mit einem Maßband skaliert.
  • Eine Methode zur Bestimmung einer Position eines Körpers nach kartesischen Koordinaten (x, y, z) mit Hilfe von wenigstens einem Markerobjekt von bekannten Abmessungen ist aus Dokument WO 98/30977 (Anmelderin: Qualisys AB; Prioritätstag: 13.01.1997) bekannt. Die Bewegungen des Markers sollen aus dem Videosignal eines aufgelösten Bilds einer CCD-Kamera, z. B. Infrarotkamera, berechnet werden. Es wird die zeitliche Struktur des Videosignals ausgewertet. Ein Segment, das in einer Bildzeile einem Marker entspricht wird mittels eines Komparators bestimmt. In dem Verfahren werden zunächst Koordinaten eines Bilds eines Objekts bestimmt. Danach wird ein Dimensionsparameter des Objekts ermittelt und anschließend werden daraus Proportionen berechnet. Aufgrund der sehr speziellen Bildauswertung sind technische Informationen des Kameratyps zu berücksichtigen.
  • Die Rotation eines Körpers wird in der Patentanmeldung US 2002/0 001 397 A1 (Erfinder: Takatoshi Ishikawa et al.; Prioritätstag: 30.10.1997) betrachtet. Eine Kontrolleinheit soll bei schnellen Rotationen eine Bildfolge eines dargebotenen Raums erhöhen, sodass kein Eindruck des Ruckelns entsteht. Bei der Auswertung der Rotation soll auf eine Berechnung einer Winkelgeschwindigkeit einer Kopfbewegung zurückgegriffen werden. Es bleibt dabei offen, wie aus Bilddaten konkret auf die Winkelgeschwindigkeit geschlossen werden soll.
  • Die Verfolgung der Bewegung von Objekten die mit aktiv- oder passiv-strahlenden Markerelementen versehen sind, wird in Dokument WO 2011/141 531 A1 (Anmelderin: Movolution GmbH; Prioritätstag: 11.05.2010) beschrieben. Digitale Farbbilder werden fortlaufend mit einer Kamera aufgezeichnet und gespeichert. Die Farbbilder werden anschließend in Graubilder umgewandelt, um die Lokalisierung der Markerelemente als helle Flecken zu erleichtern. Hierzu wird jeder Grauwert mit einem definierten Schwellenwert verglichen und oberhalb eines Schwellenwerts wird ein Pixel als potentielles Markerelement registriert. Nach dieser Graubildauswertung wird zur Identifizierung der Markerelemente wieder auf die digital gespeicherten Farbbilder zurückgegriffen, um die Bewegungsanalyse durchzuführen. Passiv retro-reflektiv-strahlende Marker sollen eine hohe Richtwirkung aufweisen. Alternativ kommen auch Farb-LEDs als Marker in Betracht. Aufgrund der Verwendung von Schwellenwerten bei der Identifikation von passiven Markern besteht allerdings die Gefahr, dass einzelne Marker bei der Bildauswertung verloren gehen.
  • Zur Verbesserung der Identifizierbarkeit von einzelnen Markern, wird in der Patentanmeldung US 2012/0 121 124 A1 (Anmelderin: The Board of Trusties of the Leeland Stanford Junior University; Anmeldetag: 15.06.2011) vorgeschlagen, Marker so auszugestalten, dass sie jeweils ein aufgedrucktes schachbrettartiges Muster aufweisen, aus dem die Position des Markers hervorgeht. Damit sollen bei Positionsbestimmungen in tomographischen Messeinrichtungen der Medizintechnik Fehler vermieden werden. Ein Nachteil bei der Verwendung solcher Marker könnte allerdings darin zu sehen sein, dass bei einer freien Bewegung im Raum die Marker aus dem Kamerafokus gelangen können, sodass die positionsbestimmenden Markierungen nicht mehr aufgelöst werden können.
  • Die in dem Dokument WO 02 063 456 A1 (Anmelderin: Anderson Technology PTY Ltd.; Prioritätstag: 08.02.2001) beschriebene Markeranordnung zur Verfolgung einer Bewegung, weist Streifen, die farblich gekennzeichnet sind, innerhalb eines Kreises auf einem Helm auf. In einer Farbanalyse von Bilddaten werden zunächst die den Markern entsprechenden Bereiche herausgefiltert, die zugeordneten Pixel gezählt und mittlere Werte für x- und y-Koordinaten bestimmt. Wird der Pixelbereich für vernünftig befunden, so erfolgt eine Auswertung verschiedener Radien auf dem Bild mit einer Bestimmung von Geradenparametern für die Beziehung zwischen verschiedenen Stellen. Ein Problem besteht darin, dass bei schnellen Bewegungen in der Bildfolge Sequenzen auftreten können, bei denen eine Positionsbestimmung des Helms nicht möglich ist. Bei Übertragung einer Bewegung aus dem realen Raum auf den virtuellen Raum können daher Ungleichmäßigkeiten auftreten, die das Erlebnis der Wahrnehmung des virtuellen Raums beeinträchtigen können.
  • Ein Verfahren und eine Vorrichtung zur Videoverfolgung eines Objekts mittels einer am Kopf montierten Bildanzeigevorrichtung, sind in Dokument DE 603 01 987 T2 (Inhaberin: Samsung Electronics Co., Ltd.; Unionsprioritätstag: 07.03.2002) beschrieben. Die Bewegung des Objekts, d. h. Position, Orientierung und Bewegungsrichtung, soll durch eine Kamera erfasst werden. In Wechselwirkung mit den Bewegungen des Benutzers soll die Umgebung einer virtuellen Realität gestaltet werden. Es werden Hauptmarker und Zusatzmarker verwendet, die in unterschiedlichen Farben markiert sind. Mindestens ein Hauptmarker muss aufgenommen werden. In ermittelten Videodaten werden Linsenverzerrungen kompensiert. Den Markern entsprechende Bildbereiche werden unter Verwendung einer Rauschdämpfungseinheit bestimmt. Aus den Videodaten wird eine Bewegungsrichtung der Punkte abgeschätzt. Für eine Orientierungs- und Positionsabschätzung sind intrinsische Parameter der Kamera zu berücksichtigen. In der Rauschdämpfungseinheit, die auf markierte Videodaten angewendet wird, soll ein morphologisches Bildbearbeitungsverfahren zum Einsatz kommen. Aus Zentrumskoordinaten von Hauptmarkerbereichen wird von einer Bewegungsabschätzeinheit unter Hinzunahme von zeitlich folgenden Bildern anhand eines Farbhistogramms und eines Farbobjektverfolgungsverfahrens eine Bewegung abgeschätzt, wobei ein Kalmanfilter verwendet wird. Die Unterscheidung von Hauptmarkern und Nebenmarkern und unterschiedliche Farben lässt eine Bildauswertung zeitaufwendig erscheinen und erfordert unter Umständen eine Berücksichtigung des Farbspektrums der verwendeten Lichtquellen.
  • Weitere Aspekte zur Bestimmung einer Pose mit einer Kamera sind z. B. in den Dokumenten US 2010/0 232 727 A1 (Anmelderin: Metaio GmbH; Anmeldetag: 22.05.2008) und Dokument US 2012/0 169 887 A1 (Anmelderin: AiLive Inc.; Anmeldetag: 05.01.2011) sowie DE 69 132 952 T2 (Inhaberin: Sun Microsystems, Inc.; Prioritätstag: 30.11.1990), US 7 529 387 B2 (Inhaberin: Canon Kabushiki Kaisha; Anmeldetag: 11.05.2005), US 8 081 815 B2 (Inhaberin: Canon Kabushiki Kaisha; Anmeldetag: 08.08.2007), US 8 217 995 B2 (Inhaberin: Lockhead Martin Corporation; Anmeldetag: 17.01.2009) und WO 2008/055 262 A2 (Annmelderin: Sensics, Inc.; Prioritätstag: 02.11.2006 und 19.06.2007) erläutert.
  • Einzelne Aspekte, die bei der mathematischen Ausgestaltung von Algorithmen hilfreich sein können, sowie Erläuterungen zu Begrifflichkeiten sind in den folgenden Veröffentlichungen enthalten: Zu Struktur aus Bewegung (Structure-from-Motion) siehe Linda G. Shapiro, George C. Stockman in „Computer Vision“, Prentice Hall, (2001); zu Kontrollalgorithmus zum Ausschluss von Fehlerbereichen (RANSAC-Algorithmus) siehe M. A. Fischler, und R. C. Bolles in „Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography“, Commun. ACM, 24(6): S.381 bis S. 395 (1981); zu Ensemble-Anpassung-Algorithmus (Bundle Adjustment Algorithm) siehe B. Triggs, P. Mclauchlan, R. Hartley und A. Fitzgibbon, Kapitel „Bundle adjustment - a modern synthesis“ in „Vision Algorithms: Theory and Practice“, LNCS, Seite 298 bis Seite 375, Springer Verlag, (2000); zu Hough- Transformation siehe US 3 069 654 (Erfinder: Paul V. C. Hough; Anmeldetag: 25.03.1960); zu 4-Parametrische Darstellung siehe J. B. Kuipers „Quaternions and Rotation Sequences: A Primer with Applications to Orbits, Aerospace, and Virtual Reality“, Mathematical Sciences Series, Princeton University Press (1999), ISBN 9780691058726; zu Kalmanfilter siehe Y. Bar-Shalom und Xiao Rong Li, „Estimation with Applications to Tracking and Navigation“, John Wiley & Sons, Inc., New York, NY, USA (2001), ISBN 047141655X; zu Linearisierter Kalmanfilter siehe Y. Bar-Shalom und Xiao Rong Li, „Estimation with Applications to Tracking and Navigation“, John Wiley & Sons, Inc., New York, NY, USA (2001); zu Partikelfilter (Condensation algorithm, Sequential Monte Carlo) siehe B. Ristic, S. Arulampalam, N. Gordon, „Beyond the Kalman Filter: Particle Filters for Tracking Applications“, Artech House (2004), siehe auch A. J. Haug, „A Tutorial on Bayesian Estimation and Tracking Techniques Applicable to Nonlinear and Non-Gaussian Processes“, The MITRE Corporation, USA, Tech. Rep., Feb. Retrieved 2008-05-06 (2005); zu Quaternionenbasiertes Trackingfilter siehe F. L. Markley, „Attitude Error Representations for Kalman Filtering“ in Journal of Guidance, Control, and Dynamics, 26 (2), Seite 311 bis Seite 317, (März 2003), siehe auch I. Y. Bar-Itzhack, und Y. Oshman „Attitude Determination from Vector Observations: Quaternion Estimation“ in IEEE Transactions on Aerospace and Electronic Systems, 21 (1), Seite 128 bis Seite 136, (Jan. 1985), sowie I. Y Bar-Itzhack,.J. Deutschmann und F. L. Markley, „Quaternion Normalization in Additive EKF For Spacecraft Attitude Determination“ in NASA Technical Documents, Seite 403 bis Seite 421, (Feb. 1993).
  • Ein Verfahren zur monokularen omnidirektionalen Erfassung von Kopfbewegungen im sichtbaren Lichtspektrum ist in dem Artikel von Giroen Lichtenauer und Maya Pantic, 2011 IEEE International Conference on Computervision Workshop, Seite 430 bis Seite 436, (2011) beschrieben. Die verwendeten Markerstrukturen sind an einem Metallrahmen befestigt, der auf dem Kopf getragen werden kann. Die Markeranordnung kann mit Winkeln von bis zu 90° in Frontalansicht verwendet werden. Die Marker sind zur Vermeidung von möglichen Abdeckungen an Stäben befestigt, die vom Kopf abstehen. In einem ersten Schritt ist es erforderlich, ein Ausgangsmodell der Markerstruktur zu bestimmen. Hierbei müssen Punkt-zu-Punkt Messungen von Markern vorgenommen werden. Der Metallrahmen passt sich flexibel dem Kopf an, weshalb die Markerpositionen veränderlich sind. Für die Positionsbestimmung werden Marker ausgewählt, die eine nahezu gleichseitige Dreiecksanordnung bilden. Damit werden tendenziell weit beabstandete Marker zu Auswertung vorausgewählt. Die Verwendung einer flexiblen Markerstruktur erhöht die Gefahr, dass sich während des Tragens die Struktur ändert und dadurch die Verfolgung der Marker größere Fehler aufweist oder unterbrochen wird.
  • Von dem Unternehmen ImmerSight GmbH wurde bereits eine Ausführungsform eines Markerträgers mit einem fünfeckigen Querschnitts präsentiert, auf dem mehrere Marker auf Flächenelementen angeordnet sind. Der Markerträger kann um den Kopf einer Person ungefähr auf Augenhöhe mittels einer Videobrille getragen werden. Die Kopfstellung und die Bewegung der Person im Raum werden in einem System über eine Kamera ermittelt. Die Kopfposition lässt sich in eine Präsentation einer virtuellen Umgebung, z. B. aus einem rechnergestützten Entwicklungsprogramm (CAD), zur Darstellung auf einer Videobrille umrechnen. Damit können bereits beeindruckende visuelle Darstellungen erzeugt werden.
  • Aufgabenstellung
  • Die Aufgabe der vorliegenden Erfindung besteht darin die Bestimmung einer Position weiter zu verbessern und möglichst exakte Positionsdaten in Echtzeit, oder zumindest in einer Zeitfolge die unterhalb der menschlichen Wahrnehmungsschwelle liegt, bereitzustellen. Nach einem weiteren Aspekt besteht eine Aufgabe darin, gewonnene Positionsdaten zur weiteren Verbesserung eines visuellen Eindrucks einer virtuellen Umgebung innerhalb eines Systems zu verwerten. Damit sollen z. B. Bewegungen in einer virtuellen Welt noch beeindruckender erscheinen, weil die Darstellung der Bewegung einem natürlichen bzw. einem tatsächlichen Bewegungsablauf noch besser entspricht.
  • Erfindungsbeschreibung
  • Die erfindungsgemäße Aufgabe wird durch den kennzeichnenden Teil einer Videobrille nach Anspruch 1 und den kennzeichnenden Teil eines Systems nach Anspruch 16 gelöst.
  • Die Pose eines Objekts, die auch als Lage eines Objekts bzw. Lage eines Gegenstands bezeichnet werden kann, wird aus Kamerabildern ermittelt. Positionsdaten können auch bei schnellen Bewegungen oder Drehungen in guter Qualität, d. h. insbesondere ununterbrochen, bereitgestellt werden. Bereits ein einziges Kamerabild kann ausreichen, um eine präzise Abschätzung für die Lage eines Objekts zu erhalten. Besonders zuverlässig sind erfindungsgemäße Verfahren, die es ermöglichen die Lage eines Objekts in jeder theoretisch einnehmbaren Pose zu bestimmen. Nach einem zeitlichen Aspekt kann eine einnehmbare Pose auch als eine geänderte gegenständliche Lage bezeichnet werden. Eine geänderte gegenständliche Lage lässt sich z. B. durch eine erste Bilddatenpixelanordnung und eine zweite Bilddatenpixelanordnung festhalten. Die geänderte gegenständliche Lage ist ausgehend von einer Ausgangslage einnehmbar. Die Ausgangslage kann daher auch als eine erste gegenständliche Lage bezeichnet werden. Vorzugweise werden die Bilder mit einer einzigen Kamera, wie eine schwarz/weiß-Kamera, aufgenommen. Handelsübliche Digitalkameras können verwendet werden. Die Aufnahmen erfolgen mit einer Bildwiederholrate. Die Bildwiederholrate hat eine Größe, mit der ein Bewegungsablauf insbesondere schrittweise, mit anderen Worten ohne Auslassung einzelner Bewegungsphasen, abbildbar ist. Die Bestimmung der Lage eines Objekts lässt sich besonders schnell ausführen, wenn eine Vorinformation über die geometrische Struktur des Objekts vorliegt. Eine anfängliche Bestimmung einer gegenständlichen Lage wird auch als Initialisierung bezeichnet.
  • Eine Objektstruktur lässt sich anhand einzelner Markerpunkte festlegen. Ein Markerpunkt kann eine Stelle des Objekts sein, die sich von einem Umgebungsbereich des Objekts unterscheidet. Es ist auch möglich, an einem Objekt Markerelemente vorzusehen. Ein Markerpunkt kann z. B. ein Mittelpunkt eines Markerelements sein. Anders gesagt kann durch ein Markerelement ein Punkt an einer Struktur eines Objekts messbar festgelegt sein. Die Festlegung ist nach einem Aspekt eindeutig. Eine Position eines Objektpunkts entspricht einer Position eines Markerpunkts. Auch die erhobene Position eines Markerpunkts legt die Position eines Objekts in drei Freiheitsgraden fest. Bei Objekten, die z. B. in Form oder Farbe veränderlich sind, ist es vorteilhaft für die Bestimmung einer gegenständlichen Lage, wenn dem veränderlichen Objekt ein Markerträger zugeordnet ist. Auf dem Markerträger sind Markerpunkte in Gestalt von Markerelementen angeordnet. Die Anordnung der Markerelemente zueinander ist festgelegt. Der Markerträger ist vorzugsweise forminvariant. Der Markerträger kann von dem Objekt oder von einer Person getragen werden. Nach einem Aspekt kann der Markerträger auch selbst als Objekt bezeichnet werden, dem eine gegenständliche Lage zukommt. Eine gegenständliche Lage wird eindeutig durch drei räumliche Dimensionen und eine Orientierung beschrieben. Durch ein Markerelement, insbesondere einen Mittelpunkt eines Markerelements, wird eine Position eines Objektpunkts angezeigt.
  • Die Markerelemente bilden in einer jeweiligen Position auf dem Markerträger eine Markerkonfiguration. Eine Mehrzahl von Markerelementen liegt in einer Konfiguration vor. Die Markerkonfiguration kann auch als eine Konfiguration von Markerpunkten bezeichnet werden. Die Markerkonfiguration ist z. B. aus der Herstellung des Markerträgers vorbekannt. Nach einem Aspekt liegt die bekannte Markerkonfiguration als Datensatz vor, die auch als Markerkonfigurationsdaten bezeichnet werden. Es ist auch möglich die Markerkonfiguration an einem veränderbaren Markerträger durch einen Algorithmus, insbesondere aus einer Folge von zweidimensionalen Bildern, zu ermitteln. Der Markerträger oder auch die Markerkonfiguration ist zumindest einem Koordinatentupel eines Objekts zuordnenbar, wobei das Koordinatentupel zumindest drei räumliche Dimensionen und eine Orientierung beschreibt. Eine in einem Raum eingenommene Lage einer Markerkonfiguration, insbesondere bezogen auf einen Fixpunkt des Raums, wird auch als Markerpositionskonfiguration bezeichnet. Eine Markermodellkonfiguration umfasst eine Konfiguration von Markerpunktkoordinaten, die eine rechnerisch bereitgestellte Markerpositionskonfigurationshypothese darstellt.
  • Die Bestimmung der Pose bzw. der Lage erfolgt mit einer Digitalkamera. Die Digitalkamera kann einen Markerträger filmen oder fotografieren. Die optischen Kamerabilder werden in der Digitalkamera in elektronische Daten, die auch als Bilddaten bezeichnet werden, gewandelt. Die Bilddaten werden einer Recheneinheit zugeführt, welche insbesondere eine Speichereinheit aufweist. Zwischen der Recheneinheit und der Digitalkamera liegt eine Bilddatenerfassungsverbindung vor, die z. B. über eine Leitungsverbindung oder als eine Funkverbindung, wie eine Infrarotverbindung, ausgebildet sein kann. In der Recheneinheit wird die gegenständliche Lage bestimmt. Die Recheneinheit wertet Bilddaten aus. Die Bilddaten dienen der Bestimmung der Lage eines Objekts, die zu dem Zeitpunkt der Bilderfassung eingenommen ist. In Versuchen hat sich herausgestellt, dass Verfahren zur Bestimmung einer gegenständlichen Lage besonders genau arbeiten, wenn ein Markerträger verwendet wird, der mindestens sechs Markerelemente in einer vorbekannten Markerkonfiguration aufweist. Die Markerelemente sind zueinander beabstandet angeordnet. Die Markerkonfiguration nimmt auf dem Markerträger eine Position ein. Durch die Markerkonfiguration auf dem Markerträger lässt sich eine Richtung bezogen auf den Markerträger festlegen. Eine Richtung kann z. B. mit einer Orientierung angegeben werden. Die dem Markerträger zugeordnete Richtung kann eine Richtung eines Objekts, wie eine Drehrichtung, eine Bewegungsrichtung, eine Laufrichtung oder eine Flugrichtung, die auch als Translationsrichtung oder Rotationsrichtung bezeichnet werden können, sein. Der Markerträger ist an einem Objekt befestigbar. Die Richtung kann allerdings auch eine Kopfstellung oder eine Blickrichtung einer Person sein, die den Markerträger z. B. auf dem Kopf trägt. Position, Richtung oder auch Orientierung können z. B. mittels Koordinaten oder Vektoren abstrakt, insbesondere zusammengefasst als Datentupel, dargestellt werden.
  • Ein Markerelement nimmt im Raum eine Markerposition ein. Die Markerposition ist von der Digitalkamera erfassbar. Die Digitalkamera zeichnet Licht, das von einem Markerelement ausgeht, auf. Licht, das von dem Markerelement aktiv oder passiv ausgesendet werden kann, wird durch einen Kamerachip auf eine elektronische Bilddatenpixelanordnung abgebildet. Der Raumbereich in drei Dimensionen, in dem sich ein Markerelement befindet, wird auf eine zweidimensionale Pixelanordnung abgebildet, aus der die zu erfassenden Bilddaten hervorgehen. In der Recheneinheit werden die Bilddaten bzw. die Bilddatenpixelanordnung ausgewertet. Vorzugsweise nimmt ein Markerelement in der Bilddatenpixelanordnung mindestens ein Pixel ein, womit ein von der Digitalkamera zu leistendes Auflösungsvermögen festgelegt werden kann. Nach einem anderen Aspekt bestimmt eine Pixelgröße im Verhältnis zu einer Markergröße bei einem gegebenen, festliegenden Abbildungsverhältnis durch eine Digitalkamera einen, vorzugsweise maximalen, Abstand zwischen der Digitalkamera und dem Markerelement. Aufgrund der innerhalb eines Pixels erfolgten Helligkeitsintegration und der möglichen Aufteilung der Helligkeit eines Markerelements, z. B. über vier in einem Quadrat angeordnete Pixel, sollte das Auflösungsvermögen, zumindest bei passiven, lichtstreuenden Markerelementen, nicht unterschritten werden. Damit ist ein Markerelement in einer Bilddatenpixelanordnung als ein Markerbildbereich auffindbar.
  • In der Recheneinheit kann ein Verfahren, wie das Verfahren zur Bestimmung einer gegenständlichen Lage, durch einen Softwarecode programmiert sein. Die Recheneinheit führt Algorithmen aus. Ein Algorithmus kann nach einem Systemaspekt auch als eine Einheit bezeichnet werden, die in der Recheneinheit vorliegen. Anders gesagt sind Algorithmen Untereinheiten einer Recheneinheit, die neben den internen Betriebseinheiten der Recheneinheit zur Ausführung vorgehalten werden.
  • Die Recheneinheit ist mit einem Markererkennungsalgorithmus ausgestattet. Der Markererkennungsalgorithmus dient der Auffindung eines Markerbildbereichs in der zweidimensionalen Bilddatenpixelanordnung. Vorzugsweise wird jeder der abgebildeten Markerelemente als Markerbildbereich von dem Markererkennungsalgorithmus aufgefunden. Als Markererkennungsalgorithmus eignet sich z. B. die sogenannte Hough-Transformation. Die Hough-Transformation ist ein robustes globales Verfahren zur Erkennung von Geraden, Kreisen oder beliebigen anderen parametrisierbaren geometrischen Figuren in einem binären Gradientenbild, also einem Schwarz-Weiß-Bild, anhand des Auffindens von Kanten. Die Hough-Transformation eignet sich, um kugelförmige Marker oder Markerelemente in einer Bilddatenpixelanordnung zu erkennen.
  • Die zweidimensionale Bilddatenpixelanordnung wird verwendet, um eine dreidimensionale Markerpositionskonfiguration zu berechnen. Die dreidimensionale Markerpositionskonfiguration kann als die räumliche Anordnung, in der die Markerelemente im Aufnahmebereich der Digitalkamera vorliegen, bezeichnet werden. Nach einem Aspekt ist in der Markerpositionskonfiguration auch der Abstand zwischen Markerträger und Digitalkamera enthalten. Abstandsänderungen zwischen einer Markerkonfiguration und einer Digitalkamera sind schnell auswertbar. Marker können auch als Markerelemente bezeichnet werden. Nach einem Aspekt können Marker Markerelemente umfassen.
  • Der Markerträger weist mindestens zwei fest miteinander verbundene Trägerflächenelemente auf, die als ein erstes und als ein zweites Trägerflächenelement bezeichnet werden können. Ein Trägerflächenelement ist ein Flächenelement, das vorzugsweise ein Verhältnis von einer Längsseite zu einer Schmalseite aufweist, das z. B. ein Verhältnis von 10:1 nicht überschreitet. Das kann Trägerflächenelement zur Längsseite und Schmalseite noch eine Dicke aufweist, die insbesondere weniger als 10 mm (Millimeter), vorzugsweise weniger als 2 mm beträgt. Ein Trägerflächenelement ist vorzugsweise ebenflächig. Auf dem Trägerflächenelement angeordnete Markerelemente verschwinden bei einer Winkelstellung des Trägerflächenelements bezogen auf die Digitalkamera nicht hinter dem Horizont einer Wölbung. Das erste und das zweite Trägerflächenelement weisen eine Winkelstellung zueinander auf. Ein Winkel zwischen zwei Trägerflächenelementen beträgt vorzugsweise mindestens 90°.
  • Dem ersten Trägerflächenelement sind mindestens drei der mindestens sechs Markerelemente zugeordnet. Die Markerelemente besitzen eine zwei- oder dreidimensionale Form, die sie von dem Trägerflächenelement unterscheidet. Markerelemente sind z. B. kugelförmige Objekte, die auf dem Trägerflächenelement angeordnet sind. Weitere Markerelemente sind dem zweiten Trägerflächenelement oder auch weiteren, vorliegenden Trägerflächenelementen zugeordnet. Das erste Trägerflächenelement mit den zugeordneten Markerelementen unterscheidet sich von dem zweiten Trägerflächenelements durch die zugeordneten Markerelementen und insbesondere von allen weiterer Trägerflächenelemente mit zugeordneten Markerelementen. Die Unterscheidbarkeit ergibt sich aus der abweichenden Konfigurierung der Markerelemente auf einem jeweiligen Trägerflächenelement. Bei gleichartigen Markerelementen unterscheiden sich vorzugsweise die Abstände, die die Markerelemente auf einem Trägerflächenelement zueinander aufweisen. Liegen die Markerelemente auf einem Trägerflächenelement in einer Dreieckskonfiguration vor, so ist vorzugsweise zumindest einer der Dreieckswinkel nur einmalig in der vorbekannten Markerkonfiguration vorhanden. Vorteilhaft ist es auch, wenn alle Dreieckswinkel, die in der Markerkonfiguration, insbesondere auf einem Trägerflächenelement, vorliegen, voneinander abweichen. Die Markerelemente der Markerkonfiguration sind bereichsweise unterscheidbar konfiguriert.
  • Die Berechnung der Markerpositionskonfiguration erfolgt aus drei gemeinsam für die Digitalkamera sichtbaren Markerelementen, die in der Markerkonfiguration vorliegen. Bei der Berechnung kommt ein Vergleichsalgorithmus zum Einsatz. Der Vergleichsalgorithmus wird auf drei gemeinsam von der Digitalkamera in einer Bilddatenpixelanordnung erfasste Markerelemente, die der Markerkonfiguration angehören, und eine Markermodellkonfiguration angewendet. Anders gesagt wird der Vergleichsalgorithmus auf die Bildbereiche der Markerelemente, insbesondere auf einen Koordinatensatz des jeweiligen Bildbereichs angewendet. Die Markermodellkonfiguration geht aus der bekannten Markerkonfiguration hervor. Die Markermodellkonfiguration ist eine perspektivische Darstellung der Markerkonfiguration, die z. B. als ein Datensatz in der Recheneinheit vorliegt. Die Markermodellkonfiguration wird, insbesondere bereichsweise, vorzugsweise mit einem Projektionsalgorithmus, auf die Ebene der Markerbildbereiche projiziert. Mathematisch wird die Projektion mit einer sogenannten Projektionsgleichung durchgeführt, deren Lösung in der Recheneinheit erfolgt. Die Projektion wird auf drei Markerbildbereiche gerichtet. Die drei Markerbildbereiche sind eine Untergruppe aus allen aufgefundenen Markerbildbereichen einer Bilddatenpixelanordnung. Die Untergruppe kann z. B. auch fünf Markerbildbereiche umfassen aus denen verschiedene Kombinationen von drei Markerbildbereichen gebildet werden.
  • Verschiedene Markermodellkonfigurationen werden sequenziell mit drei Markerbildbereichen verglichen. Der Vergleich kann auch auf parallelen Prozessoren einer Recheneinheit ausgeführt werden. Der Vergleichsalgorithmus bestimmt mindestens einen Genauigkeitswert des Vergleichs. Der Genauigkeitswert kann z. B. ein Koordinatendifferenzwert, ein Schrittweitewert oder ein Schrittzahlwert sein. Der mindestens eine Genauigkeitswert ist einer Markermodellkonfiguration zugeordnet. Ein Vergleich von Genauigkeitswerten verschiedener Markermodellkonfigurationen zeigt an, welche Markermodellkonfiguration der Markerpositionskonfiguration entspricht. Es wird rechnerisch festgelegt, welche räumliche Position und welche Orientierung die Markerpositionskonfiguration aufweist. Position und Orientierung werden anhand der zuordnenbaren Markermodellkonfiguration ausgewählt, nämlich der Markermodellkonfiguration, die am Besten zu den Markerbildbereichen passt. Damit ist die gegenständliche Lage erkannt. Insbesondere liegen die drei räumlichen Dimensionen und eine Orientierung in einer Koordinatendarstellung vor. Die eindeutig ermittelten Koordinaten, welche die Lage beschreiben, können von der Recheneinheit in zusätzlichen Algorithmen weiterverwendet werden. Die gegenständliche Lage, die z. B. von einem Objekt oder einer Person, welcher der Markerträger zugeordnet ist, zumindest nach einem Aspekt eingenommen ist, ist somit bestimmt. Demnach ist die Lage erkannt oder anders gesagt ausgemacht.
  • Es ist auch möglich mit einem erfindungsgemäßen Verfahren schnell eine geänderte gegenständliche Lage zu bestimmen. Eine geänderte gegenständliche Lage liegt insbesondere dann vor, wenn ein Markerträger ausgehend von einer ersten Position eine zweite Position einnimmt. Beispielsweise kann eine Person oder ein Objekt, das dem Markerträger zugeordnet ist, eine Pose einnehmen. Eine Pose ist z. B. eine Neigung eines Markerträgers, die einer Kopfneigung entspricht. Eine Pose ist auch eine Drehstellung eines Markerträgers, die einer Kopfdrehung entspricht. Nach einem Aspekt umfasst die Pose eine Position eines Markerträgers im Raum und eine Orientierung des Markerträgers. Es kann auch von einem Ort und von einer Neigung des Markerträgers gesprochen werden. Die Orientierung ist nach einem weiteren Aspekt eine dem Markerträger zugeordnete Richtung. In jedem Fall liegt eine geänderte gegenständliche Lage im Ablauf einer Bewegung vor. Die geänderte gegenständliche Lage ist mit einer Digitalkamera aufzeichenbar. Eine geänderte gegenständliche Lage ist eine gegenständliche Lage, die ausgehend von einer Ausgangslage eingenommen worden ist. Eine Änderung der gegenständlichen Lage ist als eine zeitliche Folge von Änderungsschritten, die auch als Bewegungsschritte bezeichnet werden können, beschreibbar. Die gegenständliche Lage nach einem Änderungsschritt ist in einer Bilddatenpixelanordnung erfassbar. Nach einem Aspekt kann eine Ausgangslage eine bekannte Markerkonfiguration sein, die als Koordinatensatz, der alle Markerelemente einzeln umfasst, in der Recheneinheit vorliegt. Die Ausgangslage kann z. B. durch eine Erfassung von Markerbildbereichen mit einer Digitalkamera in einer ersten Bilddatenpixelanordnung in einer Recheneinheit bestimmt worden sein. Die Ausgangslage kann allerdings auch iterativ aus einer zeitlich zurückliegenden Auswertung von Markerbildbereichen bestimmt worden sein. Hierzu eignet sich z. B. eine Folge von zweidimensionalen Bilddatenpixelanordnungen, die in einem Ablauf einer Bewegung mit dem Markerträger aufgezeichnet wurde, wobei vorzugsweise alle Seiten des Markerträgers der Digitalkamera gezeigt werden.
  • Bei der Aufzeichnung der Bewegung durch die Digitalkamera wird eine zeitliche Abfolge von Bilddatenpixelanordnungen aufgenommen. Ausgehend von einer ersten Bilddatenpixelanordnung, aus der heraus eine Ausgangslage festgelegt ist, wird mindestens eine weitere Bilddatenpixelanordnung aufgenommen und als Datensatz der Recheneinheit zugeführt. Diese weitere, zweidimensionale Bilddatenpixelanordnung weist in Folge einer Bewegung geänderte Markerbildbereiche auf. Geänderte Markerbildbereiche zeigen eine geänderte gegenständliche Lage an. Hierbei ist es einerseits möglich, dass eine Bewegung des Markerträgers erfolgt ist. Andererseits können geänderte Markerbildbereiche auch durch eine Bewegung der Digitalkamera vorliegen, wobei vorzugsweise der Markerträger sich an einer ortsfesten Position befindet. Es ist auch möglich, dass geänderte Bildbereiche aufgrund einer Relativbewegung zwischen Markerträger und Digitalkamera vorliegen. Mittels des erfindungsgemäßen Verfahrens kann insbesondere eine geänderte relative gegenständliche Lage bestimmt werden.
  • Eine geänderte gegenständliche Lage ist durch eine Position und/oder eine Orientierung beschreibbar. Die geänderte Position und/oder die geänderte Orientierung können einem Objekt zugeordnet sein. Die Position bzw. die Orientierung lassen sich z. B. durch Koordinaten eines Koordinatensystems benennen. Es können Datentupel für einen Punkt im Koordinatensystem oder für eine Richtung im Koordinatensystem angegeben werden. Der Ursprung des Koordinatensystems kann theoretisch in die Digitalkamera gesetzt sein. Der Ursprung des Koordinatensystems kann aber auch in einen Punkt, wie den Mittelpunkt eines Markerträgers gesetzt sein. Es ist auch möglich dass der Ursprung des Koordinatensystems als ein Fixpunkt raumfest vorliegt. Der Zeitpunkt in dem die geänderte gegenständliche Lage vorliegt, bestimmt auch das Vorliegen einer zugeordneten Markerpositionskonfiguration. Andererseits kann aus Kenntnis der Markerpositionskonfiguration auch eine, insbesondere geänderte, gegenständliche Lage vorgegeben werden. Eine Markerpositionskonfiguration ist aus den Markerbildbereichen, die in einer weiteren Bilddatenpixelanordnung enthalten sind, festlegbar. Bei der Bestimmung der Markerpositionskonfiguration wird auch eine Markermodellkonfiguration herangezogen, die der Ausgangslage entspricht. Ein Vergleichsalgorithmus wird auf eine Anordnung von ausgewählten Markerbildbereichen und eine Markermodellkonfiguration angewendet. Bei dem Vergleich kann ein Markerbildbereich in der weiteren Bilddatenpixelanordnung aufgesucht werden, der zu einem Markerbildbereich in der Ausgangslage, insbesondere einem dem Markerbildbereich in der Ausgangslage zugeordneten Koordinatenpunkt, einen im Vergleich zu anderen Markerbildbereichen der weiteren Bilddatenpixelanordnung, insbesondere zu deren jeweiligen Koordinatenmittelpunkt, kleinsten Abstand aufweist. Ein solcher Bildbereich wird auch als nächster Nachbar bezeichnet. Nächste Nachbarn können auch für mindestens drei Markerbildbereiche, z. B. für jeweils zugeordnete Koordinatenpunkte, insbesondere der weiteren Bilddatenpixelanordnung, bestimmt werden.
  • Wenn ein Markerbildbereich in der Bilddatenpixelanordnung nicht erscheint, weil ein entsprechendes Markerelement z. B. durch ein zweites Markerelement verdeckt ist, so kann aufgrund bekannter Markerkonfiguration auf einen solchen verdeckten, weiteren Markerbildbereich rückgeschlossen werden. Das Verfahren wird insbesondere dadurch robust, dass nicht alle Markerelemente des Markerträgers von der Digitalkamera aufgezeichnet werden müssen. Aufgrund der Vorkenntnis über eine Geometrie des Markerträgers und der Vorkenntnis über eine Markerkonfiguration ist bekannt, in welcher Modellansicht Markerträger und zugeordnete Markerelemente für die Digitalkamera sichtbar sind. Solche „sichtbaren“ Markerelemente sind bei der Auswertung einer Markermodellkonfiguration besonders zu berücksichtigen. Damit liegt ein Ergebnis des Vergleichsalgorithmus, der auf Markermodellkonfigurationen und auf Markerbildbereiche angewendet wird, schneller vor. Weiterhin wird auch die Leistungsfähigkeit eines numerischen Optimierungsverfahrens, das auf die im Vergleichsalgorithmus vorausgewählte Markermodellkonfiguration angewendet wird, noch mehr verbessert.
  • Das Verfahren gewinnt eine besondere Genauigkeit insbesondere dadurch, dass eine Markerpositionskonfiguration eine Markerkonfiguration von einer Mehrzahl von Markern an einer Position im Raum aufweist. Die Markerkonfiguration liegt auf einem Markerträger vor. Der Markerträger weist mindestens zwei Flächenelemente auf. Die Marker auf den Flächenelementen stellen in der Gestalt des Markerträgers an einem Ort im Raum und in einer Orientierung im Raum eine Markerpositionskonfiguration dar. Die Marker, liegen in einer flächenelementweisen Anordnung vor. Die Anordnung auf einem ersten Flächenelement und die Anordnung auf einem zweiten Flächenelement unterscheiden sich. Allerdings können die Marker auch in ein Flächenelement räumlich integriert sein, z. B. als weiße oder farbige Flächenbereiche. Auf das jeweilige Flächenelement bezogen, weisen die Marker auf dem ersten Flächenelement eine andere Position auf als die Marker auf dem zweiten Flächenelement. Die Marker auf einem ersten und einem zweiten Flächenelement können nicht deckungsgleich übereinander gebracht werden. Vorzugsweise sind die Markerpositionen auf dem ersten Flächenelement und die Markerpositionen auf dem zweiten Flächenelement weder durch Drehung, noch durch Verschiebung, noch durch gleichmäßige Streckung der Konfiguration, noch durch eine Kombination dieser Operationen ineinander überführbar. Anders gesagt weicht die Anordnung von Markern, die ein erstes Flächenelement aufweist, von einer Anordnung von Markern, die ein zweites Flächenelement aufweist, ab. Zwar können drei nichtlinear angeordnete Marker durch eine räumliche Drehung immer in eine räumliche Anordnung verbracht werden. Deren Projektion auf eine ebene Fläche, wie dem Sensor einer Digitalkamera, könnte einer zweiten, ebenen Dreiecksanordnung von Markerelementen gleichen. Diese grundsätzlich bekannte Möglichkeit ist allerdings durch die Markerkonfiguration, die auf Flächenelemente bezogen ist, ausgeschlossen. Markerelemente, die auf Flächenelementen konfiguriert sind, sind nicht gruppenweise frei zueinander räumlich veränderbar. Folglich sind die Markerelemente auch in der Projektion auf eine Bilddatenpixelanordnung flächenelementeweise unterscheidbar. Insbesondere ist die Anordnung von Markerelementen auf zueinander benachbarten Flächenelementen so konfiguriert, dass in der Projektion auf eine Fläche in einer Digitalkamera Markerelemente eines ersten Flächenelements nicht z. B. dreiecksgleich zu Markerelementen eines zweiten Flächenelements vorliegen. Ein zweites Flächenelement ist zu einem ersten Flächenelement benachbart, wenn zwischen dem ersten und dem zweiten Flächenelement kein weiteres Flächenelement vorliegt. Ein Vergleichsalgorithmus, angewendet auf die Marker des ersten Flächenelements und die Marker weiterer Flächenelemente, wird keine Übereinstimmung zwischen der jeweiligen Markerkonfiguration feststellen. Zwei beliebig auswählbare Flächenelemente von allen vorgesehenen Trägerflächenelementen differieren in der Konfiguration der jeweiligen Marker eines Flächenelements.
  • Ein numerisches Optimierungsverfahren wird verwendet, um die Parameter eines Systems, die eine Zielfunktion minimieren oder maximieren, zu bestimmen. Die Bestimmung erfolgt derart, dass entweder ein vorgegebenes Ergebnis ε der Zielfunktion unterschritten bzw. überschritten wird oder keine anderen Parameter gefunden werden, die ein kleineres bzw. größeres Ergebnis einer Zielfunktion liefern. Das Ergebnis ε kann auch als Genauigkeitswert bezeichnet werden. Diese Parameter bezeichnet man als optimal bezüglich der Zielfunktion. In einem Messsystem zur Bestimmung einer gegenständlichen Lage im Raum aus einer zwei-dimensionalen Bilddatenpixelanordnung sind die „optimalen“ Koordinaten im Idealfall die tatsächlichen Koordinaten der Markerkonfiguration.
  • Die Ausgleichsrechnung ist ein Beispiel für eine verwendbare Optimierungsmethode, wobei für eine Reihe von Messdaten (z. B. Markierungen in einem zweidimensionalen Bild) die unbekannten Parameter ihres geometrischphysikalischen Modells (Projektion von Objektpunkten in eine Bildebene) bestimmt bzw. geschätzt werden.
  • Eine Methode zur Lösung von solchen sogenannten Ausgleichs-Problemen ist die Methode der kleinsten Fehlerquadrate, bei der der quadratische Abstand der Messpunkte zu einer Schätzfunktion als Zielfunktion minimiert wird, derart, dass entweder mit den gefundenen Parametern ein vorgegebener Abstand ε unterschritten wird, oder es keine anderen Parameter gibt, die einen kleineren quadratischen Abstand von Messpunkten zu einer Schätzfunktion liefert.
  • Iterative Verfahren zur Lösung nichtlinearer Ausgleichsprobleme nähern die zu schätzenden Parameter, insbesondere Koordinaten, ausgehend von Startwerten schrittweise den optimalen Parametern, wie Koordinaten, an. Iterative Verfahren werden so lange fortgeführt bis ein Abbruchkriterium eintrifft, wie beispielsweise:
    • - Eine Zielfunktion unterschreitet mit den iterativ gefunden Parametern einen vorgegebenen Grenzwert ε.
    • - Das Ergebnis der Zielfunktion ändert sich um weniger als beispielsweise 1 % des Vorergebnisses.
    • - Es wurden die maximale Anzahl an Iterationsschritten, zum Beispiel 20, durchgeführt.
    • - Es können keine Parameter mehr gefunden werden die das Ergebnis der Zielfunktion weiter verkleinern.
  • Beispiele für numerische Optimierungsverfahren sind der Levenberg-Marquardt-Algorithmus oder das Gauß-Newton-Verfahren.
  • Eine gegenständliche Lage bzw. eine geänderte gegenständliche Lage kann besonders vorteilhaft mit einem System zur Darbietung einer Blickfelddarstellung erhoben werden. In dem System wird eine Lage bestimmt und ausgewertet. Eine als Datensatz durch das System bereitgestellte Lage kann innerhalb des Systems weiter verwendet werden. Hierbei wird eine Lage vorzugsweise zur Berechnung einer Blickfelddarstellung benutzt. Die Blickfelddarstellung kann z. B. eine Ansicht eines virtuellen Raums umfassen. Ein virtueller Raum ist eine zumindest nach einem Aspekt rechnerisch generierte, in Visualisierungsdaten darstellbare, räumliche Geometrie. Eine Ansicht wird insbesondere durch einen Raumwinkelbereich, der nach einem Aspekt auch als Blickfeld bezeichnet werden kann, festgelegt. Der Raumwinkelbereich ist durch eine Bewegung veränderbar. Die Bewegung wird im realen Raum ausgeführt. Die reale Bewegung ist in eine Darstellung des virtuellen Raums übertragbar. Ein sich durch die Bewegung veränderndes Blickfeld kann einem Betrachter angezeigt werden.
  • Das System umfasst einen portablen Markerträger, der z. B. einen Bereich eines Gesichtsfelds einer Person, wie einen Schläfenbereich, überdeckt. Vorzugsweise umschließt der Markerträger den Kopf allseitig auf einer Ebene. In der Ebene können die Augen liegen. Die Ebene kann auch die Ohren oder die Gehörgänge überschneiden. Die Ebene erstreckt sich vorzugsweise von den Augen zum Hinterkopf. Die Ebene kann auch parallel zu einer Ebene liegen, die den Augen zugeordnet ist, wie eine Ebene einer Hutkrempe. Der Markerträger kann sich z. B. entlang eines Stirnbands erstrecken. Der Markerträger kann mit Hilfe eines Bandes, das den Hinterkopf umschließt, getragen werden. Der portable Markerträger kann allerdings auch an einer Vorrichtung nach Art eines Brillengestells getragen werden. Der Markerträger weist ein sehr geringes Gewicht von weniger als 1 Kilogramm auf. Der Markerträger schränkt Bewegungsmöglichkeiten einer Person nicht oder zumindest nur unwesentlich ein.
  • Auf einem Oberflächenbereich, der bezogen auf einen zur Aufnahme eines Kopfes oder eines Objektes vorgesehenen Innenbereich des Markerträgers, nach außen gerichtet ist, ist eine Mehrzahl von Markerelementen vorgesehen. Ein Markerelement kann ein Ellipsoid sein. Ein Markerelement kann auch aus Zylinder, Quader, Kugel, Kegelelementen oder Kombinationen davon darstellbar sein. Es ist auch möglich Markerelemente zu verwenden, die eine Polyederform aufweisen. Die Form eines Markerelements kann eine Körperform sein, die sich von dem Markerträger abhebt. Zwischen einem Markerelement und dem Markerträger befindet sich kein Abstandshalter. Vielmehr kann ein Markerelement auch in einem ebenen Bereich des Markerträgers integriert sein, wobei sich das Markerelement allerdings in zumindest einer optischen Eigenschaft, wie Absorption, Reflektivität oder eine spektrale Eigenschaft, von dem Flächenbereich des portablen Markerträgers unterscheiden muss. Als Materialien für Markerelemente eignen sich z. B. Papier oder leichtgewichtige Keramik, wie Zeolith, insbesondere von nahezu weißer Farbe. Als Materialien für Markerträger eignen sich z. B. Kohlefaserplatten, schwarz eloxierte Leichtmetallplatten oder Kunststoffplatten, insbesondere von schwarzer Farbe. Auch andere Materialien können verwendet werden, die insbesondere ein Leichtgewicht aufweisen, das den Tragekomfort nicht beeinträchtigt.
  • Das System weist mindestens eine Digitalkamera auf. Die Digitalkamera kann z. B an einem Stativ oder an einer Zimmerdecke befestigt sein. Es ist auch möglich mehrere Digitalkameras zu verwenden, um einen durch eine Digitalkamera aufnehmbaren Raumbereich zu erweitern. Die Digitalkamera weist insbesondere ein Objektiv auf, mit dem ein Raumbereich scharf abgebildet werden kann. Es kann z. B. ein monokulares Objektiv zum Einsatz kommen. Vorteilhaft sind Objektive, die mit nur unwesentlicher Verzerrung einen Raumbereich abbilden. Die Abbildung erfolgt auf ein zweidimensionales Feld eines Sensors. Der Sensor wandelt das eintreffende Licht pixelweise in elektronische Daten um, die ein zweidimensionales Pixeldatenfeld bilden. Eine fotographische Aufnahme oder ein Bild einer Filmsequenz der Digitalkamera kann als ein erstes Pixeldatenfeld an eine Recheneinheit übertragen werden. Die Recheneinheit ist z. B. eine mobile Recheneinheit, wie ein sogenanntes Smartphone, ein Laptop oder ein Tablet. Auf der Recheneinheit sind Algorithmen, wie Bilddatenverarbeitungsalgorithmen, ausführbar. Weiterhin umfasst das System eine elektronische Bildanzeige. Auf der elektronischen Bildanzeige kann z. B. ein Pixeldatenfeld optisch sichtbar gemacht werden. Auf der elektronischen Bildanzeige kann allerdings auch eine berechnete Blickfelddarstellung visualisiert werden.
  • In dem System ist eine Datenübertragungseinheit vorgesehen. Die Datenübertragungseinheit besorgt die Datenübertragungsverbindung zwischen der Digitalkamera und der Recheneinheit. Die Datenübertragungsverbindung kann auch die Bereitstellung von elektronischen Daten für die Erstellung einer Blickfelddarstellung auf der elektronischen Bildanzeige bereitstellen. Anders gesagt, kann die elektronische Bildanzeige in Verbindung mit der Recheneinheit vorliegen. Die elektronische Bildanzeige kann aber auch ein eigenständiges Gerät unabhängig von der Recheneinheit sein und über die Datenübertragungsverbindung mit elektronischen Daten, insbesondere auch mit elektrischer Energie zum Betrieb, versorgt werden. Vorzugsweise wird eine kabellose Datenübertragungsverbindung verwendet. Es ist günstig für Anwendungen des Systems, wenn die Bildanzeige frei bewegbar ist. Eine Datenübertragungsverbindung zwischen Bildanzeige und Recheneinheit wird durch Bewegungen eines Markerträgers nicht unterbrochen.
  • Das System umfasst mindestens eine Lichtquelle. Die Lichtquelle dient zur Aussendung von vorzugsweise sichtbarem Licht. Das von der Lichtquelle bereitgestellte Licht muss mit der Digitalkamera registrierbar sein. Es ist auch möglich, dass eine Umwandlung des Lichts, z. B. durch Fluoreszenz oder Phosphoreszenz, an einem Markerelement erfolgt. Hierbei kann insbesondere eine ultraviolette Lichtquelle nützlich sein. Markerelemente können eine fluoreszierende oder phosphorzierende Beschichtung aufweisen. Vorzugsweise wird allerdings sichtbares Licht verwendet. Markerelemente können als Lichtquelle nach Art eines leuchtenden Mondes dienen. Es kann auch gesagt werden, dass das Tageslicht, das die Sonne liefert, direkt oder durch Reflexion bzw. Streuung indirekt als Lichtquelle Verwendung finden kann. Das Licht ist von der Digitalkamera registrierbar. Das Licht der Lichtquelle durchtritt zumindest bereichsweise den von der Digitalkamera überblickten Raumbereich. Es ist auch möglich durch Fluoreszenzeigenschaften von Markerelementen einen nichtsichtbaren Spektralbereich einer Lichtquelle in einen sichtbaren Spektralbereich an Markerelementen umzuwandeln und für die Digitalkamera registrierbar zu machen. Damit kann eine Kontrastverstärkung zwischen dem Markerelement und der unmittelbaren Umgebung des Markerelements, insbesondere in einem Bildbereich des Pixeldatenfelds, das auch als Pixeldatenanordnung bezeichnet werden kann, erreicht werden. Eine häufig eingesetzte Lichtquelle ist z. B. eine Leuchtstoffröhre oder eine Leuchtdiode (LED).
  • Die Recheneinheit errechnet eine Blickfelddarstellung. Die Blickfelddarstellung wird für die Bildanzeige bereitgestellt. In die Blickfelddarstellung wird eine Betrachterposition, die nahezu zeitgleich eingenommen ist, eingerechnet. Der Markerträger ist in dem von der Digitalkamera abgebildeten Raumbereich frei bewegbar. Zwischen Markerträger und Digitalkamera sind keine optischen Barrieren angeordnet. Es ist allerdings möglich, dass Teile des Markerträgers vorübergehend durch z. B. Haare oder einen Schal überdeckt werden. Der Raum zwischen Markerträger und Digitalkamera ist obstruktionsfrei. Es ist z. B. durch eine Raumbegrenzung vorgesehen, dass durch eine Abstandsänderung zwischen Markerträger und Digitalkamera eine Mindestauflösung von einem Markerelement in dem Pixeldatenfeld nicht unterschritten wird. Die Mindestauflösung umfasst vorzugsweise ein Pixel für ein Markerelement. Anders gesagt sollte ein Markerelement mindestens ein Pixel einnehmen. Die Mindestauflösung kann aber auch auf eine vorbestimmbare Anzahl von, z. B. vier, Pixel für ein Markerelement festgelegt werden, um eine Zuverlässigkeit einer fehlerfreien Markererkennung, z. B. durch Ausschluss elektronischer Einzelpixelfehler, zu verbessern.
  • Der Markerträger umfasst mindestens fünf Flächenelemente. Ein Flächenelement kann auch als Trägerflächenelement bezeichnet werden. Ein Flächenelement ist zumindest bereichsweise ebenflächig. Ein Flächenelement kann eine Kante, wie eine Faltungskante aufweisen. Nach einem Aspekt können Flächenelemente mit einer Faltungskante auch als zwei Flächenelemente bezeichnet werden. Als besonders günstig hat sich in Versuchen ein Markerträger herausgestellt, der mindestens fünf Flächenelemente umfasst, die jeweils an einem Randbereich einander zugeordnet sind. Es können allerdings auch zehn Flächenelemente vorteilhaft zusammengestellt werden. Werden Flächenelement trapezartig ausgebildet, lassen sie sich besonders günstig aneinanderstellen. Entlang von drei Randbereichen der trapezartigen Form erstrecken sich vorzugsweise wiederum Randbereiche weiterer Flächenelemente. Ein vierter Randbereich des Flächenelements kann freistehend sein. Die Flächenelemente sind ringartig angeordnet. Mindestens fünf Flächenelemente können zu einem Ring zusammengeschlossen sein. Nach einem Aspekt kann der Ring mit einer fünfeckigen Querschnittsfläche vorliegen. Der Markerträger kann ähnlich wie ein Kranz um einen Kopf liegen. Auf einem Flächenelement des Markerträgers liegen die Markerelemente in einer Konfiguration vor. Die Konfiguration der Markerelemente auf einem Flächenelement ist einzigartig. Anders gesagt, weicht die Anordnung der Markerelemente auf einem Flächenelement von der Anordnung der Markerelemente auf einem zweiten Flächenelement ab. Die Konfiguration der Markerelemente ist flächenelementeweise voneinander abweichend.
  • Der portable Markerträger kann in dem Raumbereich, den die Digitalkamera ermisst, eine Winkelstellung einnehmen. Die Winkelstellung liegt bezüglich einer Kamerabildebene vor. Nach einem Aspekt liegt die Winkelstellung bezüglich einer Sensorebene der Digitalkamera vor. Die Winkelstellung ist durch eine Bewegung des Markerträgers veränderbar. Es kann z. B. eine Kippbewegung oder eine Rotationsbewegung des Markerträgers zu einer Winkelstellung führen. Der Markerträger ist von der Digitalkamera in jeder Winkelstellung in Gestalt von mindestens zwei markerelementeaufweisenden Flächenelementen, ein erstes Flächenelement und ein zweites Flächenelement, die auch als Trägerflächenelemente bezeichenbar sind, einsehbar. Die zwei Flächenelemente können zueinander benachbart sein, wobei insbesondere das erste Flächenelement mit einem Randbereich an das zweite Flächenelement anschließt. Mindestens zwei Flächenelemente, die Markerelemente aufweisen, sind von der Digitalkamera gemeinsam filmbar bzw. fotografierbar, oder anders gesagt abbildbar. Die zwei Flächenelemente sind vorzugsweise jeweils trapezartig und ebenflächig gestaltet. Von den zwei Flächenelementen wird ein Winkel eingeschlossen, der kleiner als 180 ° ist. Anders gesagt ist das zweite Flächenelement nicht als eine geradlinige, insbesondere nicht als parallelartige Fortsetzung des ersten Flächenelements angeordnet. Die zwei Flächenelemente können einteilig vorliegen, gelten aber, insbesondere hinsichtlich einer Abbildung auf eine Bilddatenpixelanordnung, dennoch als unterschiedliche Flächenelemente.
  • Die Digitalkamera empfängt Licht von Markerelementen. Es liegen mindestens vier Markerelemente vor, die algorithmisch von der Recheneinheit in dem Pixeldatenfeld erkennbar sind. Mittels der erfassbaren Markerelemente wird in der Recheneinheit durch mindestens eine Vergleichseinheit, wie ein Vergleichsalgorithmus, eine räumliche Lage des Blickfelds festgelegt. Der Vergleichsalgorithmus überprüft, ob bzw. inwieweit eine Abweichung zwischen den vier Markerelementen in zweidimensionaler Abbildung und einer Markermodellkonfiguration vorliegt. Der Vergleichsalgorithmus erkennt die Markermodellkonfiguration, die die bestmögliche Übereinstimmung mit vier Markerelementen aufweist. Die ausgewählte Markermodellkonfiguration, die auch als Markerpositionskonfiguration bezeichnet werden kann, umfasst Koordinaten, die eine räumliche Lage des Blickfelds festlegen. Das Blickfeld ist an der Markerpositionskonfiguration ausgerichtet. Mit dem System kann die räumliche Lage des Blickfelds zeiteffizient berechnet und der Bildanzeige zugeführt werden, sodass der Eindruck einer fließenden Veränderung des Blickfelds in dem Verlauf einer Bewegung entsteht.
  • Nachfolgend werden vorteilhafte Ausgestaltungen und Weiterbildungen dargelegt, die für sich gesehen, sowohl einzeln aus auch in Kombination, ebenfalls erfinderische Aspekte offenbaren können.
  • Die Markermodellkonfiguration kann ausgehend von einer Vorauswahl von Markerelementen bestimmt werden. Vorzugsweise umfasst eine Vorauswahl drei Markerelementen. Die Markerelemente können auf einem einzigen Flächenelement angeordnet sein. Die Markerkonfiguration, aus der die Markerelemente ausgewählt werden, ist vorbekannt. Für den Vergleich mit Markerbildbereichen werden vorzugsweise Konfigurationshypothesen der drei Markerelemente erstellt, die auch als Markermodellkonfigurationen der drei Markerelemente bezeichnet werden können. Insbesondere bis zu fünf Konfigurationshypothesen kommen zum Einsatz. Auf Grundlage der fünf Konfigurationshypothesen gelangt der Vergleichsalgorithmus zu einer Entscheidung, ob die drei Markerelemente als Markermodellkonfiguration für weitere Berechnungen geeignet sind. Ein solches Vorgehen erlaubt ein schnelles Überprüfen verschiedener Markermodellkonfigurationen.
  • Die Qualität einer Vorauswahl einer Markermodellkonfiguration kann überprüft werden. Mindestens ein weiterer Markerbildbereich, insbesondere aus der gleichen zweidimensionalen Bilddatenpixelanordnung, wird ausgewählt. Die Zuordenbarkeit des mindestens einen weiteren Bildbereichs zur Markermodellkonfiguration kann die Auswahlentscheidung zu der Markermodellkonfiguration bestärken. Es hat sich als vorteilhaft herausgestellt, wenn bei der Überprüfung eine perspektivische Sichtbarkeit von Markerelementen berücksichtigt wird. Es ist möglich, dass mindestens ein Markerelement von dem Markerträger, insbesondere von einem Flächenelement des Markerträgers in einer Position des Markerträgers oder einer Orientierung des Markerträgers vor der Digitalkamera verdeckt ist. Ein verdecktes Markerelement der Markermodellkonfiguration kann von der Überprüfung eines weiteren Markerbildbereichs ausgeschlossen werden. Eine perspektivische Sichtbarkeit ist insbesondere aufgrund der Zuordnung von Markerelementen, insbesondere von konfigurierten Markerelementen, zu einem Trägerflächenelement vorbestimmt. Eine Markermodellkonfiguration ist nach einem Aspekt ein hypothetisches Abbild einer vorbestimmten Anordnung von Markerelementen auf einem Markerträger, die als Datensatz in einer Recheneinheit vorliegt. Die Markermodellkonfiguration kann alle Markerelemente, die auf einem Markerträger angeordnet sind, umfassen.
  • Als besonders zuverlässiger Markererkennungsalgorithmus hat sich ein Hellfleckfilter herausgestellt. Mit dem Hellfleckfilter werden insbesondere helle Bildbereiche in einer Bilddatenpixelanordnung vor einem Hintergrund, der weniger hell ist, als ein Markerbildbereich erkannt. Es können z. B. weiße Markerelemente verwendet werden, die helle, zumindest stellenweise weißliche, Bildbereiche verursachen. Der Hellfleckfilter kann eine Fleckgeometrie herausfiltern, die einem Markerelement zuordnenbar ist. Helle Flecken in einer Bilddatenpixelanordnung, die nicht von einem Markerelement stammen, können zumindest teilweise ausgeschlossen werden.
  • Die Zuverlässigkeit des Verfahrens lässt sich weiter verbessern, wenn berücksichtigt wird, dass ein Markerelement vorrübergehend, z. B. durch Haare oder durch Schattenwurf verdeckt sein kann. Es ist möglich zu berechnen, an welcher Stelle ein verdecktes Markerelement vorliegen könnte. Dadurch lässt sich z. B. eine Erkennung von Markerbildbereichen unter Verwendung einer vorbekannten Markermodellkonfiguration verfeinern.
  • Das Verfahren lässt sich weiterhin günstig ausgestalten, indem eine vorteilhafte Darstellungsweise einer Position und einer Richtung zur Bestimmung der Lage verwendet wird. Eine Position und eine Richtung können z. B. mit einem Translationsvektor und einer Rotationsdarstellung mathematisch dargestellt werden, die zu einer Markermodellkonfiguration führen. Beispiele für eine Rotationsdarstellung sind eine Rotationsmatrix, Euler-Winkel, ein Quaternion, eine Rodriguez-Darstellung oder eine Winkel-Vektor-Darstellung.
  • Orientierungsdarstellungen werden verwendet um eine Winkellage von Objekten zueinander mathematisch beschreiben zu können. Außerdem werden sie benutzt um eine Winkellageänderung, also eine Drehbewegung, von Objekten mathematisch zu beschreiben.
  • Euler-Winkel und Rodriguez-Darstellung sind 3-Parametrische Darstellungen. Bei einer 3-Parametrischen Darstellung der Orientierung sind alle Parameter von einander unabhängig. Das bedeutet, dass jeder Parameter für sich allein geändert werden kann und die Parameter immer noch eine Orientierung darstellen. Vor allem bei numerischen Optimierungsverfahren ist das ein großer Vorteil. Ein Problem kann sich ergeben, wenn eine Orientierungsdarstellung in einer Winkellage durch mehrere Varianten derselben Darstellungsform ausgedrückt werden kann. Es gibt beispielsweise 12 Arten eine einzige Orientierung mit Eulerwinkeln darzustellen. Ein weiteres mögliches Problem einer Darstellungsform ist das Auftreten einer kardanischen Blockade (Gimbal-Lock), bei der zwei Parameter dieselbe Änderung der Winkellage, also eine Drehung um dieselbe Achse, beschreiben. Eine Folge ist ein Springen der beschreibenden Parameter obwohl sich die Winkellage nicht ändert. Möchte man üblicherweise aus zwei Messungen der Winkellage auf eine Winkelgeschwindigkeit schließen, indem man die Differenz der gemessenen Lageparameter durch die verstrichene Zeit teilt, würde man in diesem Fall ein falsches Ergebnis erhalten. 3-Parametrische Darstellungsformen sind deshalb für Anwendungen bei denen der Parameter über die Zeit fortgeschrieben wird (Beispielsweise Rauschfilter) ungünstig. Die Rodriguez-Darstellung bietet Vorteile für numerische Optimierungsverfahren, weil sie sich besonders einfach aus einer Quaternion Darstellung berechnet.
  • Quaternion oder Winkel-Vektor-Darstellung sind Beispiele für 4(vier)-parametrisch Darstellungen. Eine 4-parametrische Darstellungsform hat keinen undefinierten Zustand wie den Gimbal-Lock und ist daher für sogenannte „Tracking“-Anwendungen bei der Verfolgung von Bewegung sowie für Rauschfilter geeignet. Die vier Parameter sind allerdings aufgrund der Überbestimmung nicht unabhängig von einander. Eine Änderung eines einzelnen Parameters hat immer eine Änderung mindestens eines weiteren Parameters zur Folge. Werden Zwangsbedingungen der Parameter zueinander nicht beachtet kann es sein, dass die Parameter eine Drehung und Verformung beschreiben. Für Methoden, die einzelne Parameter verändern, wie numerische Optimierungsverfahren, ist diese Darstellung daher weniger geeignet und erfordert oft eine zusätzliche Korrektur der Verformung, wenn z. B. bei einer Optimierung einer Orientierung das Objekt nicht nur gedreht sondern auch verformt wird.
  • Es ist allerdings vorteilhaft, wenn das erfindungsgemäße Verfahren mit einem numerischen Optimierungsverfahren ausgestattet ist. Durch ein numerisches Optimierungsverfahren kann die Genauigkeit bei der Bestimmung der Lage verbessert werden. In einem numerischen Optimierungsverfahren kann z. B. ein Levenberg-Marquart-Algorithmus zum Einsatz kommen. Der Levenberg-Marquardt-Algorithmus ist ein numerisch, iteratives Verfahren zur Lösung nichtlinearer Ausgleichs-Probleme mit Hilfe der Methode der kleinsten Fehlerquadrate, das sehr robust gegen schlechte Startwerte der zu bestimmenden Parameter ist. Das Gauß-Newton-Verfahren ist ein anderes Beispiel für ein verwendbares numerisches Optimierungsverfahren.
  • Das numerische Optimierungsverfahren wird auf eine Vorauswahl von Markerbildbereichen angewendet. Die Vorauswahl umfasst die drei Markerbildbereiche, die als Markerbildbereiche mit einer geringsten Abweichung zu einer Markermodellkonfiguration erkannt wurden. Es wird mindestens ein weiterer Markerbildbereich hinzugenommen. Anders gesagt wird das numerische Optimierungsverfahren auf mindestens vier Markerbildbereiche angewendet. Damit kann die Bestimmung der Lage präzisiert werden. Insbesondere lässt sich eine Orientierung genauer bestimmen. Vorzugsweise wird das numerische Optimierungsverfahren auf eine drei-parametrische Darstellung der Orientierung der Markermodellkonfiguration angewendet. Es werden auch alle weiteren Punkte der Markermodellkonfiguration, die nicht zu den Markerbildbereichen passen, durch die vorbekannten Markerkonfiguration mitgeführt.
  • Bei der Bestimmung einer Änderung einer gegenständlichen Lage werden von der Digitalkamera Bilddatenpixelanordnungen, z. B. mit einer Folge von sechzig Bilddatenpixelanordnungen, die auch als Bilder bezeichnet werden können, in einer Sekunde bereitgestellt. Von einem ersten Bild zu einem zweiten Bild kann eine Änderung einer Markerpositionskonfiguration erfolgt sein. Der Veränderung der Markerpositionskonfiguration kann auch eine Verschiebung von Markern, die auch als Markerelemente bezeichnet werden können, auf dem Markerträger zugrunde liegen. Dabei kann es erforderlich sein, die Markermodellkonfiguration, welche die Ausgangslage festlegt, neu zu berechnen. Das Verfahren lässt sich besonders schnell ausführen, wenn die auf dem Markerträger angeordneten Marker gleich gestaltet sind. Vorzugsweise sind die Markerelemente, die dem Markerträger zugeordnet sind, gleichförmig, gleichfarbig, insbesondere weiß oder schwarz, und gleichgroß. Der Markerträger ist dazu kontrastierend ausgebildet, vorzugsweise schwarz oder weiß. Eine Markerkonfiguration kann aus den erfassten Markerbildbereichen rechnerisch bestimmt werden. Hierbei werden Markerbildbereiche aus mehreren Bilddatenpixelanordnungen berücksichtigt. Vorzugsweise werden in den mehreren Bilddatenpixelanordnungen alle Markerelemente gezeigt. Anders gesagt, sollte jedes Trägerflächenelement des Markerträgers in zumindest einer Bilddatenpixelanordnung zumindest mit den auf dem Trägerflächenelement angeordneten Markern erfasst werden. Die geänderte Markerkonfiguration wird algorithmisch festgelegt. Insbesondere werden gute Ergebnisse durch Verwendung eines Struktur-aus-Bewegung-Algorithmus (structure-from-motion) erlangt. Diesem Algorithmus liegt eine Methode der Photogrammetrie, bei der eine dreidimensionale Struktur, die aus zwei Blickwinkeln in zweidimensionalen-Bildern betrachtet wird, dreidimensional vermessen wird, zugrunde. Zusätzlich kann auch noch ein Ensemble-Anpassung-Algorithmus (bundle-adjustment) verwendet werden, um die Genauigkeit der bestimmten Markerkombination weiter zu verbessern. Hierbei erfolgt eine gleichzeitige numerische Verfeinerung der Kameraparameter (Position, Ausrichtung, Fokuslänge, Pixelabmessungen, optische Verzerrung) und einer dreidimensionalen Struktur, die aus mehreren Perspektiven aufgenommen wurde. Aus einem näherungsweise bestimmten Punktemodell, das von verschiedenen Blickwinkeln mit unsicheren Kameraparametern erfasst wurde, kann eine präzise Schätzung der Punktkoordinaten ermittelt werden. Der Fehler zwischen projizierter dreidimensionaler Markermodellkonfiguration und korrespondierenden Bildpunkten wird minimiert. Es wird rekursiv eine Markerkonfiguration als Markermodellkonfiguration errechnet. Die berechnete Markerkonfiguration legt die Markermodellkonfiguration der Ausgangslage fest.
  • Die Markerpositionskonfiguration der geänderten Lage lässt sich aus z. B. einer ersten und einer zweiten Bilddatenpixelanordnung berechnen. In die Berechnung kann auch eine weitere Bilddatenpixelanordnung, wie die zweite Bilddatenpixelanordnung, einbezogen werden. Nach einem Aspekt erfolgt eine Zuordnung eines Markerbildbereichs, der in einer ersten Bilddatenpixelanordnung vorliegt, zu einem nächster-Nachbar-Bildbereich, der ein Markerbildbereich einer weiteren Bilddatenpixelanordnung ist. Es ist möglich, dass bei der Zuordnung eine zweite Bilddatenpixelanordnung übersprungen wird, weil z. B. zu wenige Markerbildbereiche in der zweiten Bilddatenpixelanordnung auffindbar waren, sodass eine weitere Bilddatenpixelanordnung verwendet wird. Ein Nächster-Nachbar-Bildbereich ist ein Bildbereich, der ausgehend von einer Position eines erfassten Markerbildbereichs einer ersten Bilddatenpixelanordnung in einer weiteren Bilddatenpixelanordnung den kleinsten linearen Abstand im Vergleich zu allen anderen Markerbildbereichen der weiteren Bilddatenpixelanordnung aufweist. Vorzugsweise ist zu mindestens drei Markerbildbereichen einer ersten Bilddatenpixelanordnung jeweils ein Nächster-Nachbar-Bildbereich der weiteren Bilddatenpixelanordnung auffindbar. Die erste Bilddatenpixelanordnung ist dabei die Ausgangslage. Durch die Änderung der drei Markerbildbereiche der Ausgangslage zu den drei Nächster-Nachbar-Bildbereichen ist die Markerpositionskonfiguration, die die geänderte Lage festlegt, z. B. mittels einer Projektion oder einer Verschiebung einer Ausgangslage, insbesondere anhand einer Markermodellkonfiguration bestimmbar. Damit lässt sich die Auswertungsgeschwindigkeit noch mehr steigern.
  • Die Genauigkeit der Bestimmung von Position und/oder die Orientierung kann noch weiter optimiert werden. Eine Optimierung ist mittels einer additiven Änderung möglich. Das Optimierungsverfahren wird numerisch ausgeführt. In der Recheneinheit kann z. B. ein Levenberg-Marquardt-Algorithmus zur Optimierung einer Markermodellkonfiguration verwendet werden. Hierbei wird eine Jacoby-Matrix durch numerische Differentiation approximiert. Vorzugsweise erfolgt die Optimierung der Orientierung in einer dreiparametrischen Darstellung der Orientierung in der Markermodellkonfiguration. Die Optimierung erfolgt z. B. mittels eines Programmcodes, der in der Recheneinheit ausführbar ist.
  • Das Verfahren zur Bestimmung einer gegenständlichen Lage, insbesondere nach einer Lageänderung, kann noch bessere Ergebnisse liefern, wenn bei dem numerischen Optimierungsverfahren ein Kontrollalgorithmus (RANSAC, Random Sample Consensus) vorgesehen ist. Mindestens ein Ergebnis des numerischen Optimierungsverfahrens wird überprüft. Nach einem ersten Aspekt können Fehlerbildbereiche, die z. B. durch stark reflektierende Gegenstände in dem Raumbereich von der Digitalkamera in die Bilddatenpixelanordnung abgebildet werden, die allerdings keine Markerelemente bzw. Marker sind, von dem Kontrollalgorithmus ausgeschlossen werden. Nach einem zweiten Aspekt können Markerbildbereiche, die in einer ersten Bilddatenpixelanordnung nicht sichtbar oder nicht auffindbar waren, die allerdings gemäß der Markerkonfiguration hätten auffindbar sein sollen, als Fehler erkannt und insbesondere nach Auffindung in einer zweiten Bilddatenpixelanordnung, z. B. rekursiv, mit einbezogen werden. Das Ergebnis des numerischen Optimierungsverfahrens wird anhand einer Zufallsauswahl von mindestens einer Markerbildbereichskonfiguration überprüft. Anders gesagt dient der RANSAC-Algorithmus dazu um eine Reihe von Messwerten, wie Markerbildbereichen bzw. Markerbildbereichen zugeordnete Koordinaten, von sogenannten Ausreißern, also Messwerten mit groben Fehlern, zu bereinigen. Aus einer vorliegenden Menge von Messungen m wird eine zufällig gewählte Untermenge mi genommen, die genau die zur Generierung einer Schätzhypothese notwendige Mindestanzahl an Messungen enthält. Damit wird die Wahrscheinlichkeit, dass sich Ausreißer in der Untermenge mi befinden, minimiert. Werte, die abhängig von einem Grenzwert k, der auch als Genauigkeitswert bezeichnet werden kann, die aus mi generierte Hypothese stärken, werden als Treffer, sogenannte „Inlier“, betrachtet. Die Untermenge, deren Hypothese die meisten Treffer produziert, wird als beste Schätzung betrachtet. Die Untermenge ist z. B. eine Auswahl von drei Markerbildbereichen, mit denen eine eindeutige Bestimmung möglich ist. Das so erhaltene Ergebnis wird mit dem Ergebnis des numerischen Optimierungsverfahrens, das insbesondere mehr als drei Markerbildbereiche einbezogen hat, verglichen. Durch Wiederholung ist es auch möglich verschiedene Markerbildbereichskonfigurationen zu überprüfen, ob daraus konsistent ein gleichartiges Ergebnis erhalten wird. Eine Hypothese kann auch als Posenhypothese oder Lagehypothese bezeichnet werden. Der Kontrollalgorithmus wird insbesondere zur Überprüfung der Zuordnung nächster Nachbarn von Markerbildbereichen zwischen einer ersten und einer zweiten Bilddatenpixelanordnung verwendet. Es erfolgt, anders gesagt, eine Überprüfung einer Übereinstimmung einer Projektion einer Markermodellkonfiguration mit einer Konfiguration von Markerbildbereichen aus einer nachfolgend aufgenommenen Bilddatenpixelanordnung. Damit kann eine grundsätzliche Möglichkeit, dass mit einer fehlerhaften Zuordnung eines nächsten Nachbarn in der Zeitfolge das Verfahren die Bestimmung einer geänderten gegenständlichen Lage verfehlt, nahezu ausgeschlossen werden.
  • Eine weitere Verbesserung der Genauigkeit bei der Bestimmung einer gegenständlichen Lage ist durch die Verwendung eines Rauschenunterdrückungsalgorithmus möglich. Es ist günstig, wenn der Rauschenunterdrückungsalgorithmus mittels einer Bewegungsverlaufsprognose die Position und/oder die Orientierung rechnerisch filtert. Position und/oder Orientierung werden beispielsweise bei einer geänderten gegenständlichen Lage aus Bilddatenpixelanordnungen erhalten und mit einem numerischen Optimierungsverfahren verfeinert. Ein Bewegungsverlauf ist stetig. Daher ist eine Prognose über den Bewegungsverlauf möglich. Vorzugsweise kommt eine Zustandsraumdarstellung von Markermodellkonfigurationen zum Einsatz. Die Zustandsraumdarstellung, die auch als Zustandsraummodell bezeichnet werden kann, ist eine Form der Beschreibung eines dynamischen Übertragungssystems. Das Zustandsraummodell ermöglicht eine Analyse und Synthese dynamischer, veränderlicher Systeme im Zeitbereich und kann auch effizient z. B. bei der regelungstechnischen Behandlung von Mehrgrößensystemen, sowie bei nichtlinearen und zeitvariablen Übertragungssystemen eingesetzt werden. Es werden sämtliche Beziehungen der Zustandsgrößen, der Eingangsgrößen und Ausgangsgrößen in Form von Matrizen und Vektoren dargestellt. Das Zustandsraummodell wird durch zwei Gleichungen - die Zustandsdifferenzialgleichung erster Ordnung und die Ausgangsgleichung - beschrieben.
  • Ein Beispiel für einen Rauschenunterdrückungsalgorithmus ist ein Kalmanfilter. Der Kalmanfilter ist ein Filter, der im Zustandsraum anwendbar ist. Damit können Messungen unter Zuhilfenahme eines Prozess- und Mess-Modells, wie einer Markermodellkonfiguration, verbessert werden. Der Kalmanfilter arbeitet in den zwei Schritten Prädikation und Innovation:
    • - Prädiktion: Unter Zuhilfenahme eines Prozessmodells (z. B. Differentialgleichung eines bewegenden Objekts) wird der letzte geschätzte Zustand (z. B. Position und Geschwindigkeit) für die nächste Messung vorausgesagt.
    • - Innovation: Die prädizierte Messung wird mit der neuen Messung zu einem neuen Schätzergebnis kombiniert. Dabei wird Messung und Messwertprädiktion je nach Unsicherheit der Messung (Messrauschen) und Unsicherheit der Prädiktion (Modellrauschen, Kovarianz der Messwertprädiktion, Kovarianz der Schätzung) unterschiedlich gewichtet.
  • Der Kalmanfilter selbst basiert auf einem Satz linearer mathematischer Gleichungen und setzt gauss-verteiltes Rauschen voraus. Vereinfacht gesprochen dient der Kalmanfilter nach einem Aspekt zum Entfernen der von den Messgeräten, wie der Digitalkamera, verursachten Störungen. Dabei müssen sowohl die mathematische Struktur des zugrundeliegenden dynamischen Systems, wie die Bewegung von Markerelementen, als auch die der Messverfälschungen, wie z. B. das Pixelrauschen, bekannt sein. Im Rahmen der mathematischen Schätztheorie spricht man hinsichtlich Kalmanfilter auch von einem Bayes'schen Minimum-Varianz-Schätzer für lineare stochastische Systeme in Zustandsraumdarstellung.
  • Es können auch Weiterentwicklungen von Kalmanfiltern verwendet werden, wie z. B. ein Extended Kalman-Filter (EKF) bzw. ein linearisiertes Kalman-Filter.
  • Eine andere, vorzugsweise in einem Verfahren verwendete Weiterentwicklung eines Rauschenunterdrückungsalgorithmus ist der quaternionenbasierte Bewegungsfolgefilter, der auch als quaternionenbasierter Kalmanfilter bezeichnet werden kann. Hierbei handelt es sich um einen nichtlinearen Filter zum Glätten von Winkellagemessungen. Insbesondere wird bei diesem Filter das bekannte Problem des „Gimbal-Lock“ vermieden. Quaternionen eignen sich ganz besonders zur Darstellung von Rotationen und bei der Lösung von Problemen der Bewegungsverfolgung. Quaternionen sind gegenüber anderen Darstellungsformen auch besonders kompakt. Es handelt sich um Vier-Parameter-Darstellungen. Die Bewegungsdynamik kann als Modell linear beschrieben werden und die Übergangsmatrix, die auch als Transitionsmatrix bezeichnet werden kann, ist einfach zu berechnen.
  • Bei drei räumlichen Koordinatenachsen zur Bezeichnung einer räumlichen Lage kann die Transitionsmatrix mit drei um die jeweiligen Koordinatenachsen auftretenden Winkelgeschwindigkeiten berechnet werden. Nach einem weiteren Aspekt lassen sich in der Umkehrung mit der Transitionsmatrix aus zwei Winkellagen, die zu unterschiedlichen Zeitpunkten bestimmt wurden, Drehgeschwindigkeiten um die jeweiligen Koordinatenachsen berechnen. Die Drehgeschwindigkeiten sind einer Drehung zugeordnet, die ein Objekt von der ersten Winkellage in die zweite Winkellage zum jeweiligen Zeitpunkt der Winkellage überführen.
  • Der quaternionenbasierte Bewegungsfolgefilter berücksichtigt im Speziellen zwei Eigenschaften der Orientierungsdarstellung mit Quaternionen. Zum einen berücksichtigt der Bewegungsfolgefilter die Eigenschaft, dass der die Drehung, anders gesagt die Rotation, darstellende Operator, nämlich der Rotationsoperator, und damit ein möglicher Fehler, der der Orientierung zukommt, durch eine Multiplikation beschrieben wird, und damit nichtlinear ist. Zum anderen wird berücksichtigt, dass das Quaternion, das die Winkellage eines Objekts beschreibt, immer ein Einheitsquaternion mit der Länge 1 (betrachtet als Betrag eines Vektors) ergeben muss.
  • In einer Ausführungsform eines quaternionenbasierten Filters mit additivem Fehler kann die multiplikative Rotationsoperation linearisiert werden, sodass sie durch eine Addition beschrieben wird. Die Eigenschaft des Einheitsquaternions kann in diesem Falle zwar dadurch bewahrt werden, dass das Ergebnis der Filterung normiert wird. In der mathematischen Struktur des zugrundeliegenden dynamischen Systems als auch bei der Beschreibung der Messverfälschung, muss allerdings das Verfahren zur Bestimmung der Winkellage als ein Pseudomessgerät für die vier Parameter eines Quaternion betrachtet werden, wobei jedem Parameter eine von den anderen Parametern unabhängige Messverfälschung zugeordnet wird, was daher vorzugsweise noch weiter zu verbessern ist.
  • Eine andere Weiterentwicklung eines quaternionenbasierten Bewegungsfolgefilters verfolgt nicht die Winkellage eines Objekts selbst, sondern die Änderung der Winkellage des Objekts. Es kann auch gesagt werden, dass die multiplikative Operation der 4-parametrischen Ausgangswinkellage mit der ebenfalls 4-parametrischen Änderung der Winkellage die aktualisierte Winkellage ergibt, die zum Zeitpunkt der Erfassung einer neuen Bilddatenpixelanordnung vorliegt. Nach einem Aspekt kann die Messung der neuen Winkellage aus der neuen Bilddatenpixelanordnung als eine Messung der Winkellage mit einer Messverfälschung bezeichnet werden. Die Berechnung der neuen, um die Messverfälschung bereinigten Winkellage wird um den Bewegungsfolgefilter gekapselt. Der Bewegungsfolgefilter berücksichtigt eine Beschränkung der Winkellage hinsichtlich eines Erwartungswerts einer Bewegungsgröße. Im Bewegungsfolgefilter selbst wird die Änderung der Winkellage in einer 3(drei)-parametrischen Darstellungsform verfolgt und kann deshalb mit einem linearen, additiven Fehler beschrieben werden ohne die Drehoperation zu verzerren. Das gefilterte Ergebnis wird vor der multiplikativen Rotationsoperation mit der Ausgangswinkellage in eine 4-parametrische Darstellung umgerechnet. Die Änderung der Winkellage kann beispielsweise mit Winkelgeschwindigkeitssensoren, wie etwa einem Gyroskop, direkt gemessen werden. Es ist auch möglich, die Änderung der Winkellage unter Annahme gleichmäßiger Rotationsbewegung im Bewegungsprozess-Modell, mittels der Transitionsmatrix aus der Ausgangswinkellage und der neuen Messung der Winkellage zu berechnen. Bei der Verwendung von sensorisch erhobenen Winkelgeschwindigkeiten müssen unterschiedliche Datenraten zwischen Sensordaten und Bilddatenpixelanordnungen kompensiert werden. Eine Anpassung von Messungen, die mit unterschiedlichen Datenraten erfasst werden, kann durch Zuhilfenahme eines dynamischen Bewegungsmodells geschehen, mit dem insbesondere Messwerte interpoliert werden können.
  • Durch ein dynamisches Bewegungsmodell können Bewegungsänderungen in der Position mit Änderungen der Winkellage gekoppelt werden, was eine verbesserte Bestimmung der Objektpose, anders gesagt, der gegenständlichen Lage eines Objekts, ergibt.
  • Als Alternative zu einem Kalman-Filter kann auch ein Partikelfilter, wie ein Kondensationsalgorithmus oder ein sequenzieller Monte-Carlo-Algorithmus eingesetzt werden. Hierbei handelt es sich um nichtlineare Filter, die keine Gaußverteilten Rauschprozesse voraussetzen.
  • Mit dem Verfahren kann besonders zügig und schnell eine Lagebestimmung erfolgen, wenn als Ausgangspunkt eine Vorauswahl einer Markeruntergruppe der Markerkonfiguration zur Anwendung des Vergleichsalgorithmus getroffen wird. In der Vorauswahl kann anders gesagt eine Anfangskonfiguration des Vergleichsalgorithmus festgelegt werden. Die Markeruntergruppe wird aus der Markerkonfiguration bestimmt. Die Markeruntergruppe kann auch aus einer Markermodellkonfiguration bestimmt werden. Vorzugsweise erfolgt die Vorauswahl der Markeruntergruppe algorithmisch in der Recheneinheit, wobei auf vorbekannte Markerkonfigurationsdaten zurückgegriffen wird. Als Markeruntergruppe können z. B. Markerelemente gewählt werden, die einen kleinsten, insbesondere mittleren, Abstand aufweisen. Nach einem Aspekt handelt es sich hierbei um die nächsten Nachbarn innerhalb der Markerkonfiguration. Die Markeruntergruppe umfasst vorzugsweise drei Markerelemente. Die Markeruntergruppe kann auch vier Markerelemente umfassen. Der kleinste mittlere Abstand ist insbesondere dann erkannt, wenn durch einen hypothetischen Austausch eines Markerelements der Markeruntergruppe ein mittlerer Abstand vergrößert wird. Der mittlere Abstand kann z. B. danach berechnet werden, dass jeweils alle vorliegenden paarweisen Abstände von zwei Markerelementen der Markeruntergruppe addiert und durch die Anzahl der Abstände dividiert werden.
  • Nach einem anderen Aspekt hat es sich in Versuchen als förderlich für die Schnelligkeit bei der Bestimmung einer Lage bzw. einer geänderten Lage herausgestellt, wenn eine Untergruppe von Markerbildbereichen vorausgewählt wird, auf die der Vergleichsalgorithmus angewendet wird. Eine erste Untergruppe umfasst vorzugsweise fünf Markerbildbereiche. Die erste Untergruppe kann allerdings auch drei Markerbildbereiche umfassen, insbesondere wenn eine Überprüfung eines numerischen Optimierungsverfahrens durchzuführen ist. Die Untergruppe wird vorzugsweise als Nächste-Nachbar-Markerbildbereichskonfiguration ausgewählt. Hierbei werden aus allen aufgefundenen Markerbildbereichen die Markerbildbereiche ausgewählt, die zueinander als nächste Nachbarn algorithmisch ausgewertet werden. Die nächsten Nachbarn lassen sich z. B. dadurch identifizieren, dass der mittlere Abstand von jeweils drei Markerbildbereichen aus allen aufgefundenen Markerbildbereichen berechnet wird. Die Markerbildbereiche mit dem kleinsten mittleren Abstand bilden die ausgewählte erste Untergruppe. Weitere Markerbildbereiche, die einen größeren mittleren Abstand als eine erste Untergruppe aufweisen, lassen sich sequenziell mit jeweils größerem mittleren Abstand in den Vergleichsalgorithmus einbringen. Das erfolgt vorzugsweise wenn die erste Untergruppe oder eine weitere Untergruppe von dem Vergleichsalgorithmus, z. B. aufgrund unzureichender Übereinstimmung mit einer Markermodellkonfiguration, aussortiert wurde.
  • Nach einem weiteren Aspekt kann eine Nächste-Nachbar-Markerbildbereichskonfiguration auch eine erste Markerbildbereichskonfiguration aus einer ersten Bilddatenpixelanordnung und eine zweite Markerbildbereichskonfiguration aus einer zweiten Bilddatenpixelanordnung sein, die z. B. von allen Markerbildbereichskonfigurationen, insbesondere innerhalb der Markerbildbereichskonfiguration, den kleinsten mittleren Abstand zueinander aufweisen.
  • Eine algorithmisch mittels Markerbildbereichen aufgefundene Markerpositionskonfiguration, die die gegenständliche Lage ausmacht, kann noch weiter verfeinert werden, indem der Markerpositionskonfiguration eine Position und eine Richtung eines Raumwinkelbereichs zugeordnet wird. Insbesondere ist es möglich, bei einer Bewegung eine Zuordnung eines geänderten Raumwinkelbereichs zu einer Markerpositionskonfiguration durchzuführen. Ein geänderter Raumwinkelbereich ist ein Raumwinkelbereich, der in einer zweiten gegenständlichen Lage vorliegt. Eine Größe des Raumwinkelbereichs kann z. B. durch zwei Winkel angegeben werden. Die Größe des Raumwinkelbereichs entspricht z. B. einem Blickfeld eines menschlichen Auges oder einem Blickfeld eines menschlichen Augenpaares. Die Position kann z. B. die Position des Kopfes im Raum sein. Die Richtung kann z. B. die Drehstellung des Kopfes oder die Drehstellung der Augen oder auch eine Kombination aus Drehstellung des Kopfes und Drehstellung der Augen sein. Der Raumwinkelbereich ist in Bereichsbilddaten eines virtuellen Raums umrechenbar. Es können allerdings auch aus Bilddaten eines realen Raums, wie eine Photographie oder ein Film, die digitalisiert auf der Recheneinheit vorliegen, zur Berechnung von Bereichsbilddaten, die einem Raumwinkelbereich zugeordnet sind, herangezogen werden. Insbesondere werden für eine Umrechnung Bilddaten eines dreidimensionalen Raums verwendet. Bereichsbilddaten, die einem Raumwinkelbereich zuordnenbar sind, können von einem rechnergestützten Konstruktionsprogramm bereitgestellt worden sein. Es ist auch möglich eine Position und eine Richtung in einem rechnergestützten Konstruktionsprogramm zu verwenden, um einen Raumwinkelbereich eines virtuellen Raums zu errechnen.
  • Ein System, mit dem eine Blickfelddarstellung dargeboten werden kann, arbeitet vorzugsweise mit Markerelementen, die in einer Konfiguration vorliegen. Die Konfiguration der Markerelemente kann durch einen Markerträger, insbesondere durch Flächenelemente des Markerträgers strukturiert sein. Die Konfiguration der Markerelemente wird vorzugsweise durch eine Pseudozufallsverteilung der Markerelemente festgelegt. Bei einer Pseudozufallsverteilung wird eine Position eines Markerelements mit Hilfe mindestens einer Zufallszahl vorbestimmt. Zufallszahlen werden z. B. von einem Zufallszahlenalgorithmus rechnerisch vorgegeben. Eine Zufallszahl kann z. B. eine Koordinate oder ein Pixel auf einem Flächenelement eindeutig festlegen. Der Begriff Pseudozufallsverteilung besagt, dass die zufällige Verteilung der Markerelemente weiteren Randbedingungen unterliegt. Es ist beispielsweise möglich vorab festzulegen, dass auf einem Flächenelement des Markerträgers eine bestimmte Anzahl, wie z. B. drei, Markerelemente vorliegen müssen. Es kann auch festgelegt werden, dass die Markerelemente nichtlinear angeordnet sind. Bei einer Pseudozufallsverteilung kann auch eine Randbedingung festgelegt werden, wonach in der Konfiguration ein Mindestabstand jedes Markerelements von einem nächstliegenden Rand eingehalten ist. Nach einem anderen Aspekt kann auch ein Mindestabstand von einer nächstliegenden Kante des Markerträgers vorausgesetzt sein. Nach noch einem anderen Aspekt lässt sich vorab ein Mindestabstand von jeweils zwei Markerelementen der Konfiguration festlegen. Mit solchen Vorgaben lässt sich z. B. die Unterscheidbarkeit von zwei Markerelementen verbessern. Weiterhin werden in einem Pixeldatenfeld, das von einer Kamera aufgenommen wurde, Markerelemente zumindest bereichsweise mit dem Hintergrund des Markerträgers gezeigt, wodurch ein Auffinden von Markerelementen in dem Pixeldatenfeld erleichtert werden kann. Ein Markerträger bietet einen homogenen und gleichmäßigen, insbesondere dunklen, Hintergrund, der sich z. B. von einem in dem Raumbereich erfassbaren Hintergrund unterscheidet. Der Mindestabstand beträgt vorzugsweise mindestens ein Drittel eines Markerelementdurchmessers. Es ist auch möglich, einen Mindestabstand von einem halben Markerelementdurchmesser oder einem ganzen Markerelementdurchmesser als Mindestabstand vorzusehen, um so die Markererkennung in dem Pixeldatenfeld weiter zu verbessern. Vorzugsweise sind alle Markerelemente in der Konfiguration nicht linear zueinander angeordnet, sodass von einer Nichtlinearität der Konfiguration gesprochen werden kann. Eine nichtlineare Konfiguration von drei Markerelementen ist eine Dreieckskonfiguration. Durch jede dieser Randbedingungen kann die Bestimmung einer Lage in verschiedenen Winkelstellungen des Markerträgers weiter verbessert, und eine Erkennbarkeit eines Markerelements durch eine Digitalkamera gesteigert werden.
  • Markerelemente lassen sich besonders gut in einem Pixeldatenfeld auffinden, wenn die Konfiguration mindestens einen, vorzugsweise mindestens vier Markerbildbereiche bereitstellt. Konfiguration besagt auch, dass eine Kombination einer vorausgewählten Ausgestaltung eines Markerträgers mit Markerelementen vorliegt. Die Markerbildbereiche werden in einer Aufnahme einer Digitalkamera bereitgestellt. Die Aufnahme der Digitalkamera erfasst auch Markerträgerbildbereiche. Mindestens einer der Markerbildbereiche sollte zumindest bereichsweise an einen Markerträgerbildbereich angrenzen. Vorzugsweise grenzen mindestens vier Markerbildbereiche an einen Markerträgerbildbereich an. Sind weitere Markerbildbereiche in dem Pixeldatenfeld enthalten, so sind insbesondere auch die weiteren Markerbildbereiche in zweidimensionaler Ansicht des Pixeldatenfelds zumindest an einem Kantenbereich mit einem Helligkeitsunterschied zu einem Flächenelement des Markerträgers ausgewiesen. Vorzugsweise ist ein Markerbildbereich von einem Markerträgerbildbereichsrand umschlossen.
  • Markerbildbereiche sind besonders gut mit einem Markererkennungsalgorithmus zu erfassen, wenn sie mit einem hohen Kontrast im Verhältnis zu einem Bildbereichshintergrund vorliegen. Dafür ist es günstig, wenn Flächenelemente eines Markerträgers eine absorptionsfördernde Oberfläche aufweisen. Als ein förderlicher Aspekt einer Oberfläche wird eine Materialeigenschaft verstanden, die eine Erleichterung oder eine Begünstigung eines optischen Effekts bewirkt. Der Markerträger kann z. B. zur Verbesserung, d. h. Erhöhung, der Absorption von sichtbarem Licht ausgebildet sein. Die Absorption eines Flächenelements kann auch für einen vorgegebenen Spektralbereich optimiert sein. Vorzugsweise wird mehr als 50% des Lichts, das auf ein Flächenelement einfällt, absorbiert. Eine absorptionsfördernde Oberfläche ist nach einem Aspekt zu unterscheiden von einer reflexionsfördernden Oberfläche. Eine reflexionsfördernde Oberfläche erleichtert Photonen das Verlassen der Oberfläche, wohingegen eine absorptionsfördernde Oberfläche eine Aussendung von Photonen erschwert. Der Bereich sichtbaren Lichts kann z. B. zwischen 350 und 800 Nanometer bemessen sein. Markerelemente weisen vorzugsweise eine reflexionsfördernde Oberfläche auf. Eine reflexionsfördernde Oberfläche ist z. B. eine weiße Oberfläche. Eine weiße Oberfläche wirft eintreffendes Licht des sichtbaren Spektralbereichs zurück. Es ist auch möglich, dass die Reflexion mit einer Streuung von Licht erfolgt. Anders gesagt bietet eine reflexionsfördernde Oberfläche vorzugsweise keinen Winkelerhalt für einfallendes Licht, insbesondere möglichst geringe Rückreflexion, sodass eine Positionierung einer Lichtquelle frei wählbar ist. Eine reflexionsfördernde Oberfläche kann nach einem Aspekt auch als eine abstrahlungsfördernde Oberfläche bezeichnet werden. Die Abstrahlung kann eine Rückstrahlung von empfangenem Licht umfassen. Die Abstrahlung kann aber auch die Aussendung von generiertem Licht umfassen. Vorzugsweise werden mehr als 50 % des auf ein Markerelement einfallenden Lichts reflektiert. Insbesondere sind Markerelementoberflächen vorteilhaft, die Licht breitbandig zurückwerfen. Es können allerdings auch Markerelementoberflächen oder Markerelementoberflächenbeschichtungen verwendet werden, die eine Abstrahlung von sichtbarem Licht, insbesondere in einem spektraleingeschränkten Wellenlängenbereich, fördern. Damit ist es möglich, z. B. durch das Vorsetzen eines geeigneten Spektralfilters vor eine Digitalkamera, die Auffindbarkeit von Bildbereichen von Markerelementen in einer Bilddatenpixelanordnung zu verbessern. Nach einem weiteren Aspekt kann die Auffindbarkeit von Markerelementen in Bildbereichen auch durch eine Beschichtung mit einem optischen Aufheller verbessert werden. Ein optischer Aufheller ist eine Substanz, die z. B. energiereiches Licht, wie UV-Licht, in energieärmeres Licht, wie sichtbares Licht, umwandelt. Der optische Aufheller wird vorzugsweise auf den Markerelementen aufgebracht. Der optische Aufheller kann auch als Beimischung des formgebenden Materials eines Markerelements vorliegen. Optische Aufheller sind z. B. dann besonders nützlich, wenn an dem Aufstellungsort des Markerträgers Tageslicht herrscht oder zumindest zum Licht der Lichtquelle beiträgt. Es kann allerdings auch eine zusätzliche, sogenannte Schwarzlichtquelle, wie eine Schwarzlichtleuchtstofflampe, verwendet werden, um die Auffindbarkeit von Markerelementen durch einen Markererkennungsalgorithmus noch weiter zu verbessern. Als Alternative zu passiv kontrastbildenden Markerelementen können auch aktiv leuchtende Markerelemente, wie z. B. Markerelemente, in die jeweils eine Leuchtdiode integriert ist, verwendet werden. Eine größere Unabhängigkeit von verfügbaren Lichtquellen lässt sich z. B. durch Integration einer Leuchtdiode oder eines Lichtleitfaserendes von einer Lichtquelle in mindestens ein nach außen durchscheinbares Markerelement erreichen.
  • Die Recheneinheit des Systems ist vorzugsweise so klein und leicht, dass sie tragbar ist. Die Recheneinheit kann z. B. in einer Hand getragen werden. Es ist auch möglich, die Recheneinheit an einem Riemen oder einem Gürtel zu befestigen. Der Anwendungsmöglichkeiten der Recheneinheit werden noch mehr erweitert, wenn die Recheneinheit eine Speichereinheit aufweist. Die Speichereinheit kann unter Anderem zur Bereitstellung von Daten eines virtuellen Raums eingesetzt werden. Es ist aber auch möglich, die Daten eines virtuellen Raums per Funk zur Recheneinheit zu übertragen, um die tragbare Recheneinheit möglichst klein zu gestalten, sodass sie in einem Innenbereich eines Markerträgers untergebracht sein kann. Die Daten des virtuellen Raums können zur Bereitstellung von Lageänderungen oder Blickfelddarstellungen in zeitlicher Folge verwendet werden. Es ist auch vorteilhaft, wenn ein Steuerelement in dem System vorgesehen ist. Das Steuerelement kann eine Vorauswahl einer Raumbereichspositionierung einfach und schnell ermöglichen. Ein Steuerelement kann so ausgebildet sein, dass es mit einer Recheneinheit verbindbar ist. Beispielsweise kann ein Steuerelement als ein Spracherkennungsmodul vorliegen, das über ein Mikrofon eine Spracheingabe auswertet. Es ist auch möglich, dass das Steuerelement als eine Gestenerkennungseinheit ausgebildet ist, in der ein oder mehrere Pixeldatenfelder algorithmisch analysierbar sind. Die Pixeldatenfelder werden z. B. mit der Digitalkamera optisch erfasst und in algorithmisch auswertbare elektronische Daten umgewandelt. Damit lässt sich eine Blickfelddarstellung schnell ändern, ohne einen Systemneustart vornehmen zu müssen. Die Blickfelddarstellung kann durch Lageänderungen in dem System weiter verfolgt werden.
  • Neben einer ersten elektronischen Bildanzeige kann das System auch weitere elektronische Bildanzeigen, insbesondere eine zweite elektronische Bildanzeige, umfassen. Es ist möglich, dass die erste elektronische Bildanzeige und die zweite elektronische Bildanzeige gemeinsam ein Blickfeld bilden. Eine günstige Anordnung liegt vor, wenn die weitere elektronische Bildanzeige von einer ersten elektronischen Bildanzeige in einer Querrichtung fest beabstandet ist. Vorzugsweise sind die elektronischen Bildanzeigen nebeneinander angeordnet, womit eine erweiterte Blickfelddarstellung möglich ist. Nach einem weiteren Aspekt kann auch das gleiche Blickfeld dupliziert dargeboten werden. Damit können auch unterschiedliche Betrachter sich auf das gleiche Blickfeld konzentrieren. In einer weiteren Ausführungsform können ein erstes und ein zweites Blickfeld als ein Stereoraumwinkelbereich dargeboten werden. Ein Stereoraumwinkelbereich bietet einen noch beeindruckenderen räumlichen Eindruck einer virtuellen Umgebung bzw. eines virtuellen Raums für einen Betrachter.
  • Ein Ausführungsbeispiel einer elektronischen Bildanzeige ist eine Videobrille. Eine Videobrille weist in einer Ausführungsform eine erste und eine zweite Bildanzeige auf. Eine Bildanzeige ist einem Auge zugeordnet. Weiterhin kann eine Videobrille mindestens eine Messeinrichtung umfassen. Es können auch weitere Messeinrichtungen, wie eine zweite Messeinrichtung, an einer Videobrille vorgesehen sein. Eine Messeinrichtung ist eine Einheit zur Ausführung mindestens einer Messung einer Messgröße, vorzugsweise in zeitlicher Folge. Eine Messeinrichtung umfasst z. B. mindestens einen Inertialsensor zur Messung von Beschleunigung und Drehraten (inertial measurement unit, kurz IMU), mindestens einen Augenstellungssensor oder ein Sehschärfesensor. Es ist in einer vorteilhaften Weiterbildung möglich mittels einer Videobrille, die insbesondere für jedes Auge eine Augenstellungsmesseinrichtung umfasst, eine Blickrichtung einer Person, bzw. eine Blickrichtungsänderung einer Person, durch Verdrehen der Augen festzustellen. Eine Blickrichtung kann in eine Darstellung insbesondere eines Blickfelds bzw. eines Winkelbereichs in einem virtuellen Raum eingerechnet werden. Es ist auch möglich eine Lagesensorik, die z. B. mechanisch arbeitet, oder einen Beschleunigungssensor in dem System vorzusehen, um eine Genauigkeit einer Lagebestimmung noch weiter zu verbessern oder nach einem anderen Aspekt eine Geschwindigkeit einer Lagebestimmung noch weiter zu erhöhen.
  • Die zuvor dargestellten Kombinationen und Ausführungsbeispiele lassen sich auch in zahlreichen weiteren Verbindungen und Kombinationen betrachten.
  • Einzelne benannte Aspekte sind frei miteinander kombinierbar oder auch mit Merkmalskombinationen als weitere Ausführungsform zusammenfassbar.
  • Figurenliste
  • Die vorliegende Erfindung kann noch besser verstanden werden, wenn Bezug auf die beiliegenden Figuren genommen wird, die beispielhaft besonders vorteilhafte Ausgestaltungsmöglichkeiten darlegen, ohne die vorliegende Erfindung auf diese einzuschränken, wobei
    • 1 ein System zur Darbietung einer Blickrichtung zeigt, wobei eine Trägerperson sich in einem Raumbereich frei bewegen kann,
    • 2 einen Markerträger zeigt, in den aktivleuchtende Markerelemente integrierbar sind, und zwar in Draufsicht in 2a, in einem Durchschnitt entlang der Achse B-B in 2b, in Seitenansicht in Richtung B, in 2c sowie in einer dazu senkrechten Seitenansicht in 2d und in einer perspektivischen Ansicht in 2e,
    • 3 einen Markerträger mit passiv lichtstreuenden Markerelementen zeigt, und zwar in einer Draufsicht in 3a, in einer ersten Seitenansicht, in 3b sowie in einer zweiten Seitenansicht in 3c und in einer perspektivischen Ansicht in 3d,
    • 4 einen Markerträger aus 3 mit eingebauter Videobrille in Draufsicht in
    • 4a, in erster Seitenansicht in 4b, in zweiter Seitenansicht in 4c und in perspektivischer Ansicht in 4d zeigt,
    • 5 eine erste Ausführungsform eines Verfahrens zeigt und
    • 6 eine zweite Ausführungsform eines Verfahrens zeigt.
  • Figurenbeschreibung
  • In 1 ist ein System 1 gezeigt, mit dem eine Blickfelddarstellung für eine Trägerperson P darbietbar ist. Die Trägerperson P trägt auf dem Kopf auf Augenhöhe einen Markerträger 3, welcher kugelartige Markerelemente, wie das Markerelement 5 aufweist, die alle gleichartig ausgeformt sind. Ein Trägerflächenelement, wie die Trägerflächenelemente 27, 27v, trägt mindestens drei Markerelemente, wie das Markerelement 5. Der Markerträger 3, umfasst insgesamt dreißig, verteilt angeordnete Markerelemente 5. Die Trägerperson P kann sich mit dem Markerträger 3 in eine gegenständlichen Lage 2, bezeichenbar durch eine erste räumliche Dimension x, eine zweite räumliche Dimension y, eine dritte räumliche Dimension z und eine Orientierung Θ, bringen. Die erste räumliche Dimension x, die zweite räumliche Dimension y, die dritte räumliche Dimension z und die Orientierung Θ sind durch eine Bewegung der Trägerperson P einzeln oder in Kombination veränderbar. Hierbei liegt jeweils eine Winkelstellung 61 des Markerträgers 3 bezüglich der Kamerabildebene 9 der monookularen Digitalkamera 7 vor. Die monookulare Digitalkamera 7 bildet einen kegelartigen Raumbereich 11 mit dem Raumwinkelbereich α ab. Die Trägerperson P kann sich in dem Raumbereich F frei bewegen, insbesondere bei der Lagebestimmung tanzen, hüpfen oder auch Pirouetten drehen. Auch wenn die Person P sich bückt oder z. B. sich aus einer Horizontalen mit dem Oberkörper aufrichtet bzw. aufsteht, kann die Bewegung präzise verfolgt werden. Die Trägerperson hält sich aber innerhalb des Raumbereichs 11 auf. Bei Erreichen einer Grenze des Raumbereichs 11 wird automatisch ein wahrnehmbares Warnsignal von der Recheneinheit 13 ausgegeben. Es liegt jeweils zu einem Zeitpunkt eine Markerpositionskonfiguration 46 vor. Ein erstes Trägerflächenelement 27 des Markerträgers 3 ist zu einem zweiten Trägerflächenelement 27v abgewinkelt. In der gezeigten Stellung der Trägerperson P wird das erste Trägerflächenelement 27 von der Digitalkamera 7 abgebildet, wohingegen das Trägerflächenelement 27v vor der Digitalkamera 7 verborgen ist. Das Markerelement 5 auf dem ersten Trägerflächenelement wird von der Digitalkamera abgebildet und elektronisch in ein Bilddatenfeld 21, das auch als Bilddatenpixelanordnung bezeichnet werden kann, umgewandelt. Das Bilddatenfeld 21 ist z. B. auf einer elektronischen Bildanzeige 19 einer Recheneinheit 13 anzeigbar. Über die Datenübertragungsverbindung 17, die von der monookularen Digitalkamera 7 zur Recheneinheit 13 als Leitungsverbindung ausgebildet ist, können Daten gesendet und empfangen werden. An die Recheneinheit 13 ist weiterhin die Datenübertragungseinheit 15 angeschlossen, die Datenübertragungsverbindung 17' eine bidirektionale Funkverbindung zu einer Empfangseinheit an einer Videobrille 23, die in einem Innenbereich des Markerträgers 3 sitzt, unterhält.
  • Eine Ausführungsform eines Markerträgers 3' ist in 2 gezeigt, mit einer absorptionsbegünstigenden Oberfläche 29. Der Markerträger 3' ist zum Einbau von selbstleuchtenden Markerelementen vorgesehen, wobei strombetriebene Leuchtdioden (LEDs) als Lichtquelle (nicht gezeigt) dienen. Die Figuren 2a, 2b, 2c, 2d und 2e sind verschiedene Ansichten von Markerträger 3'. Der Markerträger 3' weist in der Ansicht 2a die Trägerflächenelemente 27, 27', 27'', 27''' und 27IV auf, die ringartig angeordnet sind. Die Trägerflächenelemente 27, 27' haben eine Winkelstellung 63 von 72°. In Draufsicht sind die fünf Flächenelemente 27, 27', 27'', 27''', 27IV einer Digitalkamera (nicht dargestellt) zugewandt. 2b zeigt einen Schnitt entlang der Achse B-B aus 2a, woran der freie Innenbereich 46 ersichtlich ist, in den ein Gegenstand oder ein Kopf eingebracht werden kann. In der Seitenansicht von 2c, die in Richtung B aus 2a liegt, ist gezeigt, dass das erste Trägerflächenelement 27 zu dem zweiten Trägerflächenelement 27v eine Winkelstellung 63' aufweist, die 80° beträgt. Auch in der Ansicht entlang der Achse B-B aus 2a, die in 2d vorliegt, lassen sich zwei Trägerflächenelemente 27', 27" erkennen. Wie anhand der 2c, 2d und insbesondere 2e in perspektivischer Ansicht anhand von Einzelstellungen des Markerträgers 3' veranschaulicht ist, sind auch in einer beliebigen perspektivischen Winkelstellung des Markerträgers 3' immer zumindest zwei Trägerflächenelemente, wie die Trägerflächenelemente 27', 27'', 27''', abbildbar, obgleich einzelne Trägerflächenelemente, wie das Trägerflächenelement 27v aus 2c, in 2e aufgrund der gezeigten Blickrichtung in den Innenbereich 46 verdeckt sind.
  • In 3 ist ein Markerträger 3" gezeigt, wobei 3a eine Draufsicht und die 3b und 3c jeweils eine Seitenansicht und 3d eine perspektivische Ansicht sind. Der Markerträger 3" trägt Markerelemente wie das Markerelement 5.
  • Die Draufsicht von 3a zeigt, dass die Konfigurationen von Markerelementen 41, 41', 41'' , 41''' , 41IV, die auf den Trägerflächenelementen 27, 27', 27'', 27''', 27IV vorgesehen sind, sich jeweils voneinander unterscheiden. Die Markerelemente, wie das Markerelement 5, weisen eine reflexionsfördernde Oberfläche 31 auf, die eine Abstrahlung von Licht begünstigt. Die Flächenelemente, wie das Flächenelement 27'', weisen jeweils eine absorptionsfördernde Oberfläche, wie die absorptionsfördernde Oberfläche 29 auf, die die Absorption von sichtbarem Licht begünstigt. Wie z. B. 3b belegt, unterscheiden sich die Konfigurationen auf den Trägerflächenelementen, wie die Konfiguration 41, 41' auf dem Trägerflächenelement 27, 27', und die Konfigurationen von Markerelementen auf den anderen Trägerflächenelementen, wie die Konfiguration 41V auf dem zweiten Trägerflächenelement 27V. Es liegt demnach keine gleichartige Konfiguration von Markerelementen 41, 41', 41'', 41''', 41IV, 41V auf dem Markerträger 3" vor. Die Unterscheidbarkeit der Konfigurationen, wie die Konfiguration 41", voneinander ist auch in 3c ersichtlich. Die Markerelemente, wie Markerelement 5, 5', 5'', 5''', 5IV, 5a, liegen in einer Pseudozufallsverteilung 42 vor und sind gleichartig mit einem Markerelementdurchmesser 39 ausgebildet. Zwischen Markerelement 5' und Markerelement 5" liegt ein Abstand 37, der zufällig ungefähr das Zweifache eines Markerelementdurchmesser 39 beträgt. Der Abstand 37' zwischen Markerelement 5 und Markerelement 5' beträgt zufällig ca. vier Markerelementdurchmesser 39, wobei ein Markerelementen 39 auch als ein Mindestabstand zwischen Markerelementen 5, 5', 5'' bezeichnet werden kann. Die Konfiguration 41'' mit den Markerelementen 5, 5' und 5'' liegt daher als ungleichseitiges Dreieck vor. Der Mindestabstand 38 zum Rand 33, der von Markerelement 5 eingehalten wird, beträgt einen halben Markerelementdurchmesser 39. Hinter dem Rand 33 sind Markerelemente, wie das Markerelement 5a, verborgen. In der perspektivischen Ansicht von 3d sind die Flächenelemente 27, 27', 27'' als trapezförmige Flächenelemente zu erkennen. Das Flächenelemente 27 und 27' schließen an der Kante 35 aneinander an. Die Flächenelemente 27 und das verdeckte Flächenelement 27V schließen an der Kante 35' aneinander an. Kante 35 kann auch als schmalseitige Kante und Kante 35' kann als langseitige Kante bezeichnet werden. Konfiguration 41 mit Trägerflächenelement 27 verdecken Konfiguration 41V auf Trägerflächenelement 27V. Obgleich Trägerflächenelement 27IV in Seitenansicht nur linienartig einsehbar ist, hebt sich Konfiguration 41IV in dem von der perspektivischen Ansicht von 3d dargebotenen Bildbereich hervor und kann daher von einer Digitalkamera (nicht dargestellt) abgebildet und ausgewertet werden.
  • Eine weitere Ausführungsform eines Markerträgers 103 liegt in 4 vor. In der Draufsicht von 4a sind die ersten Flächenelemente 127, 127', 127'', 127''', 127IV in ringartig geschlossener, fünfeckartiger Anordnung gezeigt. In einem Innenbereich 146 ist eine Videobrille 123 an dem Markerträger 103 befestigt. Die Videobrille 123 umfasst die elektronische Bildanzeige 119 für das rechte Auge und die elektronische Bildanzeige 119' für das linke Auge einer Trägerperson (nicht dargestellt). Weiterhin liegt eine zusätzliche Messeinrichtung 125 vor. Mit Hilfe der Markerelemente, wie Markerelement 105, sind die Position und die Orientierung des Markerträgers 103 eindeutig festlegbar. Die Seitenansichten 4b und 4c des Markerträgers 103 zeigen, dass die Videobrille 123 vollständig in den Innenbereich 146 integriert an dem Markerträger 103 befestigt ist. In der perspektivischen Ansicht in 4d ist die Datenübertragungseinheit 150 gezeigt, mit der Messdaten von Messeinrichtungen, wie der Messeinrichtung 125 aus 4a an der Videobrille 123, an eine Recheneinheit geschickt werden können oder Daten, die ein Blickfeld einer virtuellen Umgebung darstellen, empfangen und in der Videobrille 123 dargeboten werden können.
  • Ein Flussdiagramm für ein erfindungsgemäßes Verfahren 200, 201 ausgehend von dem Verfahrensstart 202 in einem System (nicht dargestellt) ist in 5 dargestellt. Das Verfahrensschema 200, 201 umfasst verschiedene Möglichkeiten des Verfahrensablaufs. In einem Verfahrensablauf 200 ist die Bestimmung einer gegenständlichen Lage 230 vorgesehen. In einem weiteren Verfahrensablauf 201 ist die Bestimmung einer gegenständlichen Lage 230 nach einer Lageänderung vorgesehen. Die Bestimmung der, insbesondere geänderten, gegenständlichen Lage 230 kann auch als Schätzung einer Pose bezeichnet werden. Das Verfahren 200, 201 von 5 umfasst Schritte zur Bestimmung einer gegenständlichen Lage 230, die zur sogenannten Initialisierung des Systems 288 verwendet werden. Das Verfahren von 5 umfasst auch Verfahrensschritte zur Bestimmung einer geänderten gegenständlichen Lage, die auch als Messung einer neuen Pose 222 bezeichnet wird. Die neue Pose 222 wurde im Ablauf einer Bewegung eingenommen und kann daher auch als Erfassung eines Bewegungszustands bezeichnet werden. Bewegungszustände können z. B. als Schnappschüsse oder stroposkopisch erfasst werden.
  • Mit einer monookularen Digitalkamera 207 wird ein Bild aufgenommen, aus dessen Bilddatenpixelanordnung 221 der Markererkennungsalgorithmus 204 Markerbildbereiche 206 auswertet, aus denen 2D (zweidimensionale) - Koordinaten 208 im aufgenommenen Bild 221 aller möglichen Marker bestimmt werden. Ist das System noch nicht initialisiert 212, so werden zunächst Initialisierungsschritte durchgeführt, wobei eine bekannte Geometrie des Markerträgers 236 und eine bekannte Markerkonfiguration 234 in die Bestimmung der Markermodellkonfiguration 242 eingehen. Aus der Markermodellkonfiguration 242 werden drei Markermodellpunkte 264 oder ggf. bei einer Wiederholung andere Markermodellpunkte 238 ausgewählt und mit drei Markerbildbereichen 262 verglichen, wobei bis zu fünf Posenhypothesen 266, die auch als Hypothesen für die Lage der drei Markermodellpunkte bezeichnet werden können, iterativ in die zweidimensionale Anordnung der ausgewählten Markerbildbereiche 262 projiziert werden 268. Anschließend erfolgt ein Vergleich 270 zwecks Auffindung weiterer Übereinstimmungen zwischen Markerbildbereichen und projizierten theoretisch sichtbaren Modellpunkten. In der Iteration 272 wird dann die jeweils nächste Posenypothese 274 verglichen und wenn alle Posenhypothesen für drei Markerbildbereiche 276 durchgeprüft sind, erfolgt in einem nächsten Iterationsschritt 278 eine geordnete, insbesondere sequenzielle Prüfung von Stichproben bzw. Variationen dreier Markerbildbereiche 260, unter Hinzuziehung anderer Punkte 238, die als drei Markerbildbereiche 262 in den Vergleich mit drei Markermodellpunkten 264 eingehen. Sind alle Iterationen über alle Variationen 280 von Markerbildbereichen und Modellpunkten durchgeprüft, so erfolgt, wenn unterdessen keine plausible Hypothese gefunden wurde 282, die Auswertung eines nächsten Bildes 221''. Wurde anhand eines Genauigkeitswerts (nicht dargestellt) eine passende Hypothese für eine passende Markermodellkonfiguration in einem der Iterationsschritte gefunden 284, so erfolgt eine Projektion des gesamten Markermodells mit Posenhypothese in das zweidimensionale Bild mit den Markerbildbereichen 268' um eine Zuordnung zwischen Markerbildbereichen und korrespondierenden Modellpunkten 286 zu erhalten. Anschließend wird eine numerische Optimierung der Hypothese für die Lage anhand der Markermodellkonfiguration bzw. die Hypothese für die Pose bezüglich den Pixelabständen zwischen projizierten Markermodellpunkten und korrespondierenden Markerbildbereichen mit einem Algorithmus, wie dem Levenberg-Marquardt-Algorithmus, durchgeführt 220'. Nach Abschluss der numerischen Optimierung ist das System initialisiert 288 und die gegenständliche Lage ist mit Hilfe der bekannten Markerkonfiguration 234 und der bekannten Geometrie des Markerträgers 236 bestimmt.
  • Mit erfolgter Verfahrensinitialisierung 288 ist durch die Bestimmung einer gegenständlichen Lage eine Ausgangslage bekannt, die zur Initialisierung des quaternionenbasierten Bewegungsfolgefilters mit Position und Orientierung 290 weiter verwendet werden kann. Es wird ein nächstes Bild 221' durch die monookulare Digitalkamera 207 aufgenommen und die zweidimensionalen Koordinaten 208 aller möglichen Marker im aufgenommenen Bild werden mittels Markererkennungsalgorithmus 204 ausgewertet. Wenn in dem Verfahren die Initialisierung bereits vorliegt 210, so werden von einem vorhergehend ausgewerteten Bild, wie dem Bild 221, die 2D-Koordinaten von Markerbildbereichen 208a der Bilddatenpixelanordnung herangezogen und zur Bestimmung von nächsten Nachbarn 214 mit den 2D-Koordinaten aus dem nächsten Bild 221' in einem Vergleichsalgorithmus verglichen. Daraus werden Hypothesen, sogenannte Markermodellkonfigurationhypothesen, über eine mögliche Korrespondenz für einen Vergleich zwischen Markerbildbereichen und Punkten der Markermodellkonfiguration aufgestellt 216. Anders gesagt wird eine Projektion der Markermodellkonfiguration, die der vorhergehenden Bilddatenpixelanordnung zugeordnet ist, auf die Markerbildbereiche des nächsten Bildes 221, das auch als nächste Bilddatenpixelanordnung bezeichnet werden kann, durchgeführt. Mit einem numerischen Optimierungsverfahren wird bezüglich der projizierten Punkte der Markermodellkonfiguration und den korrespondierenden Markerbildbereichen ein Vergleich durchgeführt, um die passende Projektion, insbesondere die richtigen Projektionsparameter, zu finden 220. Hierbei kommt ein Projektionsalgorithmus zum Einsatz. Zur Verbesserung der Hypothesen über die Korrespondenz 216 erfolgt eine Überprüfung von Zufallsauswahlen von Modellpunkten mit dem Algorithmus zum Auffinden von Ausreißern 218, der auch als Kontrollalgorithmus zum Ausschließen von Fehlerbildbereichen (RANSAC) bezeichnet werden kann. Die Bestimmung der gegenständlichen Lage 222 nach einer Lageänderung wird weiter verbessert durch Anwendung eines quaternionenbasierten Bewegungsfolgefilters 224, in dem der Bewegungsablauf, z. B. eines Kopfes, 226 mit einer Prognose 228 über eine stetige Entwicklung berücksichtigt wird. Die auf diese Weise mit guter Genauigkeit erhaltene Pose bzw. geänderte gegenständliche Lage wird dann in eine Darstellung bzw. Projektion einer dreidimensionalen (3D) Computergrafik 232 eingerechnet.
  • In 6 ist eine Ausführungsform des Verfahrens 300, 301 gezeigt, bei der, ähnlich wie in dem Verfahren 200, 201 gemäß 5, ein Verfahren 300 zur Bestimmung einer gegenständlichen Lage zur Verfahrensinitialisierung 388 mit einem Verfahren 301 zur Bestimmung einer gegenständlichen Lage 322 nach einer Lageänderung, insbesondere zur Messung einer neuen Pose, miteinander kombiniert sind. Ausgehend von dem Start 302 bis zur Erstellung bzw. Darstellung einer dreidimensionalen (3D) Computergrafik 332 liegen zahlreiche Übereinstimmungen mit dem Verfahren von 2 vor, weshalb hinsichtlich des detaillierten Verfahrensablaufs für die Aspekte unter dem Bezugszeichen 307, 321, 304, 306, 308, 321', 312, 321'', 334, 336, 342, 338, 364, 366, 372, 374, 368, 370, 359, 382, 384, 368', 386, 320', 388, 390, 310, 308a, 314, 316, 318, 320, 324, 328, 326, 330 auf die entsprechenden Bezugszeichen von 5 mit um die Zahl 100 verkleinerten Bezugszeichen und den Beschreibungstext zu 5 verwiesen wird. Bei der Feststellung, dass das System noch nicht initialisiert ist 312, wird allerdings eine andersartige Iteration vorgenommen. Hierbei wird aus den aufgefundenen Markerbildbereichen 306 iterativ ein i-ter Markerbildbereich (Mi) ausgewählt 350 und es werden die fünf nächstbenachbarten Markerbildbereiche um den i-ten Markerbildbereich (Mi) herum identifiziert und als Gruppe 351 zusammengefasst. Anschließend erfolgt eine Iteration über alle zehn ungeordneten Stichproben, die sich aus einer möglichen Auswahl von drei aus fünf Markerbildbereichen erstellbar sind 352. Wurde eine Kombination bereits geprüft 353, so wird in der Iteration von drei aus fünf Kombinationen ein nächster Iterationsschritt 378' ausgeführt und eine weitere Kombination betrachtet. Wurde die Kombination noch nicht geprüft 354, so werden die drei zu betrachtenden Markerbildbereiche 362 iterativ über alle Permutationen 355 in bis zu fünf Posenhypothesen 366, die mit der Projektion der Markermodellkonfiguration zu vergleichen sind 370, zusammengeführt. Sind alle der fünf Posenhypothesen aus drei Markerbildbereichen durchgeprüft 376, so wird eine nächste Permutation 356 in der Iteration über alle Permutationen 355 abgearbeitet. Sind alle Permutationen aus drei Markerbildbereichen durchgeprüft 357, so wird eine weitere Kombination von drei aus fünf Markerbildbereichen der Prüfung unterzogen. Sind alle Kombinationen aus fünf Markerbildbereichen durchgeprüft 358, so wird in einem weiteren Iterationsschritt 378" ein i+1-ter Markerbildbereich (Mi+1) ausgewählt, um für diesen i+1-ten Markerbildbereich (Mi+1) die nächste Gruppe von fünf benachbarten Markerbildbereichen für weitere iterative Prüfungen heranzuziehen. Hierbei ist „i“ eine natürliche Zahl, die zur Nummerierung von unterschiedlichen Markerbildbereichen verwendet wird. In Versuchen wurde festgestellt, dass mit einer derartigen iterativen Schachtelung ein beachtlicher Zeitgewinn bei der Bestimmung einer gegenständlichen Lage 388 erreicht wird.
  • Es ist allerdings auch möglich in einer weiteren Ausführungsform das Verfahren zur Bestimmung einer gegenständlichen Lage (200, 300) iterativ, d. h. in Wiederholung auf anderer Datenbasis, dazu einzusetzen, eine gegenständliche Lage nach einer Lageänderung zu bestimmen und so einen Bewegungsablauf zu verfolgen. Es kann eine Ausgangslage bereitgestellt werden. Eine Markermodellkonfiguration aus Markerbildbereichen weiterer Bilddatenpixelanordnungen kann mit einem quaternionenbasierten Bewegungsfolgefilter mittels einer Bewegungsverlaufsprognose verbessert werden. Der Bewegungsablauf kann somit in eine Blickfelddarstellung einer 3D-Computergrafik eingerechnet werden.
  • Die in den einzelnen Figuren gezeigten Ausgestaltungsmöglichkeiten lassen sich auch untereinander in beliebiger Form verbinden. Insbesondere lassen sich einzelne Aspekte eines Ausführungsbeispiels mit einem zweiten Ausführungsbeispiel kombinieren.
  • Bezugszeichenliste
  • 1
    System, insbesondere System zur Darbietung einer Blickfelddarstellung
    2
    gegenständliche Lage
    3, 3', 3'', 103
    Markerträger, insbesondere Markerträgerbildbereich
    5, 5', 5'', 5''',
    Markerelement, insbesondere Markerbildbereich
    5IV, 105 5a
    Markerelement, insbesondere verdecktes Markerelement
    7, 207, 307
    Digitalkamera, insbesondere monookulare Digitalkamera
    9
    Kamerabildebene
    11
    Raumbereich
    13
    Recheneinheit
    15
    Datenübertragungseinheit
    17, 17'
    Datenübertragungsverbindung, insbesondere Bilddatenerfassungsverbindung
    19, 119, 119',
    elektronische Bildanzeige, insbesondere Blickfelddarstellung
    21
    Pixeldatenfeld, insbesondere Bild
    23, 123
    Videobrille
    125
    Messeinrichtung, insbesondere Beschleunigungssensor
    27, 27'', 127
    erstes Flächenelement, insbesondere Trägerflächenelement
    27', 27V, 127'
    zweites Flächenelement, insbesondere Trägerflächenelement
    27''', 27IV, 127'',
    weiteres Flächenelement, insbesondere Trägerflächenelement
    127''', 127IV 29
    absorptionsfördernde Oberfläche
    31
    reflexionsfördernde Oberfläche
    33
    Rand
    35, 35'
    Kante
    37, 37'
    Abstand, insbesondere zwischen zwei Markerelementen
    38
    Mindestabstand, insbesondere zu einem Rand
    39
    Markerelementdurchmesser, insbesondere Mindestabstandgröße
    41, 41', 41'',
    Konfiguration, insbesondere Anordnung von Markerelementen
    41''', 41IV, 41V
    auf mindestens einem Trägerflächenelement
    42
    Pseudozufallsverteilung, insbesondere der Konfiguration der Markerelemente
    43
    Markerpositionskonfiguration, insbesondere dreidimensionale Anordnung
    46, 146
    Innenbereich
    150
    Datenübertragungseinheit, insbesondere Sender und Empfänger
    61
    Winkelstellung, insbesondere des Markerträgers
    63, 63'
    Winkelstellung, insbesondere der Flächenelemente
    200, 300
    Verfahren, insbesondere zur Bestimmung einer gegenständlichen Lage
    201, 301
    Verfahren, insbesondere zur Bestimmung einer gegenständlichen Lage nach einer Lageänderung, vorzugsweise aus einer zweiten Bilddatenpixelanordnung
    202, 302
    Start, insbesondere der Verfahren in dem System
    204, 304
    Markererkennungsalgorithmus, insbesondere Hellfleckfilter
    206, 306
    Markerbildbereiche
    208, 308
    2D-Koordinaten aller möglichen Marker im Bild
    208a, 308a
    2D-Koordinaten aus der vorherigen Bilddatenpixelanordnung, insbesondere Ausgangslage
    210, 310
    Verfahren initialisiert, insbesondere System wurde bereits initialisiert
    212, 312
    Verfahren nicht initialisiert, insbesondere System ist noch nicht initialisiert
    214, 314
    Vergleichsalgorithmus, insbesondere Nächster-Nachbar-Markerbildbereich
    216, 316
    Markermodellkonfigurationhypothesen zur Bestimmung von Korrespondenzen zu Markerbildbereichen durch Vergleiche
    218, 318
    Kontrollalgorithmus zum finden und ausschließen von Ausreißern, wie Fehlerbildbereichen, insbesondere RANSAC
    220, 320
    numerisches Optimierungsverfahren bezüglich projizierter Markermodellkonfiguration und korrespondierenden Markerbildbereichen, um Projektionsparameter zu finden, insbesondere Levenberg-Marquardt-Algorithmus
    220', 320'
    numerisches Optimierungsverfahren bezüglich projizierter Markermodellkonfiguration und korrespondierenden Markerbildbereichen, insbesondere Levenberg-Marquardt-Algorithmus
    221, 321
    Bilddatenpixelanordnung, insbesondere Bild
    221', 221'',
    Weitere, insbesondere nächste, Bilddatenpixelanordnung
    321', 321'' 222, 322
    Bestimmung einer geänderten gegenständlichen Lage, insbesondere neue Messung einer Pose
    224, 324
    Filteralgorithmus, insbesondere quaternionenbasierter Bewegungsfolgefilter
    226, 326
    Bewegungsmodell eines Markerträgers
    228, 328
    Prognose eines Bewegungsverlaufs
    230, 330
    Bestimmung einer, insbesondere geänderten, gegenständlichen Lage, vorzugsweise Schätzung einer Pose
    232, 332
    3D-Computergrafik, insbesondere Darstellung der räumlichen Lage eines Blickfelds in einen Raumwinkelbereich
    234, 334
    bekannte Markerkonfiguration, insbesondere Anordnung der Marker
    236, 336
    bekannte Geometrie des Markerträgers, insbesondere Trägerflächenelemente
    238, 338
    andere Punkte wählen
    242, 342
    Markermodellkonfiguration
    350
    Iteration über alle Markerbildbereiche (Mi)
    351
    Gruppe der 5 nächst benachbarten Markerbildbereiche um einen ausgewählten Markerbildbereich (Mi)
    352
    Iteration über alle 10 ungeordneten Stichproben (Kombinationen) von 3 aus 5 Markerbildbereichen
    353
    Kombination wurde schon einmal geprüft.
    354
    Kombination wurde noch nicht geprüft
    355
    Iteration über alle Permutationen von drei Markerbildbereichen
    356
    nächste Permutation, insbesondere nächste Iteration
    357
    alle Permutationen aus drei Markerbildbereichen sind geprüft
    358
    alle Kombinationen aus fünf Markerbildbereichen sind geprüft
    359
    alle Markerbildbereiche (Mi) sind geprüft
    260
    Iteration über alle geordneten Stichproben (Variationen) dreier Markerbildbereiche
    262, 362
    drei Markerbildbereiche
    264, 364
    drei Punkte der Markermodellkonfiguration
    266, 366
    Bis zu fünf Posenhypothesen, insbesondere Konfigurationshypothesen
    268, 268', 368,
    Projektion der Markermodellkonfiguration mit Posenhypothese
    368'
    in das 2D-Bild, insbesondere Projektionsalgorithmus
    270, 370
    Vergleich zur Zuordnenbarkeit von vorzugsweise weiteren Übereinstimmungen zwischen Markerbildbereichen und projizierten, theoretisch sichtbaren Punkten der Markermodellkonfiguration, insbesondere Vergleichsalgorithmus
    272, 372
    Iteration über alle fünf Posenhypothesen, insbesondere Konfigurationshypothesen
    274, 374
    nächste Posenhypothese
    276, 376
    alle Posenhypothesen aus 3 Markerbildbereichen sind geprüft
    278, 378', 378''
    nächster Iterationsschritt
    280
    Ende der Iteration über alle Variationen
    282, 382
    keine Posenhypothese plausibel
    284, 384
    passende Posenhypothese, insbesondere anhand eines Genauigkeitswerts, gefunden
    286, 386
    Zuordnung zwischen Markerbildbereich und korrespondierendem Punkt der Markermodellkonfiguration, vorzugsweise mittels Genauigkeitswert, insbesondere Vergleichsalgorithmus
    288, 388
    Verfahren ist initialisiert, insbesondere eine Ausgangslage im System ist bestimmt
    290, 390
    Initialisierung des quaternionenbasierten Bewegungsfolgefilters mit Position und Orientierung
    x
    erste räumliche Dimension
    y
    zweite räumliche Dimension
    z
    dritte räumliche Dimension
    α
    Raumwinkelbereich
    Θ
    Orientierung
    B-B
    Achse
    B
    Richtung, insbesondere Orientierung
    F
    Raumbereich, insbesondere Bewegungsbereich
    P
    Trägerperson
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • GB 2451461 A [0002]
    • US 4884219 [0003]
    • US 2012/0095589 A1 [0004]
    • WO 9830977 [0005]
    • US 2002/0001397 A1 [0006]
    • WO 2011/141531 A1 [0007]
    • US 2012/0121124 A1 [0008]
    • WO 02063456 A1 [0009]
    • DE 60301987 T2 [0010]
    • US 2010/0232727 A1 [0011]
    • US 2012/0169887 A1 [0011]
    • DE 69132952 T2 [0011]
    • US 7529387 B2 [0011]
    • US 8081815 B2 [0011]
    • US 8217995 B2 [0011]
    • WO 2008/055262 A2 [0011]
    • US 3069654 [0012]

Claims (61)

  1. Videobrille mit wenigstens einer elektronischen Bildanzeige, wobei die Bildanzeige einem Auge zugeordnet ist, dadurch gekennzeichnet, dass die Videobrille mindestens eine Messeinrichtung umfasst.
  2. Videobrille nach Anspruch 1, dadurch gekennzeichnet, dass mehrere Messeinrichtungen an der Videobrille vorgesehen sind.
  3. Videobrille nach einem der Ansprüche 1 bis 2, dadurch gekennzeichnet, dass die Messeinrichtung eine Einheit zur Ausführung mindestens einer Messung einer Messgröße vorzugsweise in zeitlicher Folge ist.
  4. Videobrille nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Messeinrichtung mindestens einen Inertialsensor zur Messung von Beschleunigung und Drehrate (IMU) erfasst.
  5. Videobrille nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Messeinrichtung einen Augenstellungssensor, insbesondere für jedes Auge einen Augenstellungssensor, umfasst.
  6. Videobrille nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Videobrille einen Sehschärfensensor umfasst.
  7. Videobrille nach wenigstens einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Videobrille einen Markerträger, bevorzugt auf Augenhöhe einer Person, umfasst, wobei der Markerträger insbesondere am Kopf einer Person getragen wird.
  8. Videobrille nach Anspruch 7, dadurch gekennzeichnet, dass der Markerträger mehrere Marker auf Flächenelementen umfasst.
  9. Videobrille nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass das Markerelement aus Zylinder-, Quader-, Kugel- oder Kegelelement oder Kombinationen darstellbar ist.
  10. Videobrille nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Videobrille eine Recheneinheit umfasst und die Recheneinheit derart klein ausgestaltet ist, dass die Recheneinheit im Innenbereich eines Markerträgers untergebracht ist.
  11. Videobrille nach wenigstens einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass die Markerelemente Papier oder leichtgewichtige Keramik, insbesondere von nahezu weißer Farbe und/oder die Markerträger Kohlefaserplatten, insbesondere schwarz eloxierte Leichtmetall- oder Kunststoffplatten, insbesondere von schwarzer Farbe, umfassen.
  12. Videobrille nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die Markerelemente Licht aktiv oder passiv aussenden.
  13. Videobrille mit wenigstens einer elektronischen Bildanzeige, dadurch gekennzeichnet, dass die Videobrille mindestens einen Inertialsensor (IMU) umfasst.
  14. Videobrille mit wenigstens einer elektronischen Bildanzeige, dadurch gekennzeichnet, dass die Videobrille mindestens einen Augenstellungssensor, insbesondere für jedes Auge einen Augenstellungssensor, umfasst.
  15. Videobrille mit wenigstens einer elektronischen Bildanzeige, dadurch gekennzeichnet, dass die Videobrille einen Markerträger umfasst.
  16. System, insbesondere zur Darbietung einer Blickfelddarstellung, umfassend - einen Markerträger, bevorzugt einen portablen Markerträger - mindestens eine Kamera, insbesondere Digitalkamera, - eine Recheneinheit, dadurch gekennzeichnet, dass das System eine elektronische Bildanzeige, insbesondere eine Videobrille, umfasst.
  17. System nach Anspruch 16, dadurch gekennzeichnet, dass die Videobrille eine Videobrille gemäß einem der Ansprüche 1 bis 15 ist.
  18. System nach einem der Ansprüche 16 bis 17, dadurch gekennzeichnet, dass das System eine Datenübertragungseinheit umfasst, die eine Datenübertragungsverbindung, insbesondere eine Infrarotverbindung, zwischen der Digitalkamera und der Recheneinheit zur Verfügung stellt.
  19. System nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass die Datenübertragungseinheit elektronische Daten für die Erstellung einer Blickfelddarstellung auf der elektronischen Bildanzeige bereitstellt.
  20. System nach einem der Ansprüche 16 bis 19, dadurch gekennzeichnet, dass eine kabellose Datenübertragungsverbindung vorgesehen ist.
  21. System nach einem der Ansprüche 16 bis 20, dadurch gekennzeichnet, dass die Bildanzeige frei bewegbar ist.
  22. System nach einem der Ansprüche 16 bis 21, dadurch gekennzeichnet, dass das System mindestens eine Lichtquelle, insbesondere zur Aussendung von sichtbarem Licht, umfasst.
  23. System nach einem der Ansprüche 16 bis 22, dadurch gekennzeichnet, dass die Recheneinheit eine Blickfelddarstellung ermittelt, insbesondere eine Blickfelddarstellung für die Bildanzeige.
  24. System nach einem der Ansprüche 16 bis 23, dadurch gekennzeichnet, dass die Kamera, insbesondere Digitalkamera Licht von den Markerelementen empfängt, wobei die Markerelemente Licht aktiv oder passiv aussenden.
  25. System nach einem der Ansprüche 16 bis 24, dadurch gekennzeichnet, dass die Markerträger eine reflexionsfördernde Oberfläche umfassen.
  26. System nach einem der Ansprüche 16 bis 25, dadurch gekennzeichnet, dass der Markerträger um den Kopf einer Person mittels einer Videobrille tragbar ist.
  27. System nach wenigstens einem der Ansprüche 16 bis 26, dadurch gekennzeichnet, dass die Digitalkamera mit Hilfe der Marker Kopfstellung und Bewegung einer Person im Raum ermittelt und die Recheneinheit die Kopfstellung in einer Präsentation einer virtuellen Umgebung zur Darstellung auf einer Videobrille umrechnet.
  28. System nach wenigstens einem der Ansprüche 16 bis 27, dadurch gekennzeichnet, dass die Recheneinheit eine mobile Recheneinheit, insbesondere ein Smartphone, ein Laptop oder ein Tablet ist.
  29. System nach einem der Ansprüche 16 bis 28, dadurch gekennzeichnet, dass eine Digitalkamera derart ausgelegt ist, dass ein Markerträger gefilmt und/oder fotografiert wird und die optischen Kamerabilder in der Digitalkamera in elektronische Daten gewandelt werden, die der Recheneinheit zugeführt werden.
  30. System nach einem der Ansprüche 16 bis 29, dadurch gekennzeichnet, dass die Recheneinheit tragbar ist.
  31. System nach einem der Ansprüche 16 bis 30, dadurch gekennzeichnet, dass die Recheneinheit in einer Hand getragen wird.
  32. System nach einem der Ansprüche 16 bis 31, dadurch gekennzeichnet, dass die Recheneinheit derart gestaltet ist, dass sie im Innenbereich eines Markerträgers untergebracht ist.
  33. System nach einem der Ansprüche 16 bis 32, dadurch gekennzeichnet, dass die Recheneinheit eine Speichereinheit umfasst.
  34. System nach Anspruch 33, dadurch gekennzeichnet, dass die Speichereinheit Daten eines virtuellen Raumes zur Verfügung stellt.
  35. System nach einem der Ansprüche 33 bis 34, dadurch gekennzeichnet, dass die Daten des virtuellen Raumes zur Bereitstellung von Lageänderungen oder Blickfelddarstellungen in zeitlicher Folge verwendet werden.
  36. System nach einem der Ansprüche 33 bis 35, dadurch gekennzeichnet, dass das System ein Steuerelement umfasst.
  37. System nach Anspruch 36, dadurch gekennzeichnet, dass das Steuerelement eine Vorauswahl einer Raumbereichspositionierung zur Verfügung stellt.
  38. System nach einem der Ansprüche 36 bis 37, dadurch gekennzeichnet, dass das Steuerelement mit der Recheneinheit verbindbar ist.
  39. System nach einem der Ansprüche 36 bis 38, dadurch gekennzeichnet, dass das Steuerelement ein Spracherkennungsmodul umfasst.
  40. System nach einem der Ansprüche 36 bis 39, dadurch gekennzeichnet, dass das Spracherkennungsmodul ein Mikrofon umfasst.
  41. System nach einem der Ansprüche 36 bis 40, dadurch gekennzeichnet, dass das Steuerelement eine Gestenerkennungseinheit umfasst.
  42. System nach Anspruch 41, dadurch gekennzeichnet, dass in der Gestenerkennungseinheit ein oder mehrere Pixeldatenfelder algorithmisch analysierbar sind.
  43. System nach einem der Ansprüche 16 bis 42, dadurch gekennzeichnet, dass das System neben der elektronischen Bildanzeige, insbesondere ersten Bildanzeige, eine weitere elektronische Bildanzeige, insbesondere eine zweite, elektronische Bildanzeige, umfasst.
  44. System nach Anspruch 43, dadurch gekennzeichnet, dass erste und zweite elektronische Bildanzeige gemeinsam ein Blickfeld bilden.
  45. System nach Anspruch 44, dadurch gekennzeichnet, dass erste elektronische Bildanzeige und zweite elektronische Bildanzeige in Querrichtung fest beabstandet sind.
  46. System nach einem der Ansprüche 43 bis 45, dadurch gekennzeichnet, dass erste elektronische Bildanzeige und zweite elektronische Bildanzeige derart angeordnet sind, dass ein gleiches Blickfeld dupliziert dargeboten wird.
  47. System nach einem der Ansprüche 16 bis 46, dadurch gekennzeichnet, dass das System derart ausgebildet ist, dass eine Kopfstellung und eine Bewegung einer Person im Raum über eine Kamera, insbesondere eine Digitalkamera, ermittelt werden.
  48. System nach Anspruch 47, dadurch gekennzeichnet, dass das System derart ausgebildet ist, dass eine Kopfposition in einer Präsentation einer virtuellen Umgebung, die auf der Recheneinheit ausgeführt wird, zur Darstellung auf einer Bildanzeige, insbesondere Videobrille, umgerechnet wird.
  49. System nach einem der Ansprüche 16 bis 48, dadurch gekennzeichnet, dass die Recheneinheit derart klein ausgebildet ist, dass sie im Innenbereich des Markerträgers untergebracht ist.
  50. System nach einem der Ansprüche 16 bis 49, dadurch gekennzeichnet, dass das System mehrere Digitalkameras umfasst.
  51. System nach einem der Ansprüche 16 bis 50, dadurch gekennzeichnet, dass das System eine Lichtquelle, insbesondere für sichtbares Licht, umfasst.
  52. System nach einem der Ansprüche 16 bis 51, dadurch gekennzeichnet, dass das System eine Datenübertragungseinheit, insbesondere eine kabellose Datenübertragungseinheit, umfasst.
  53. System nach einem der Ansprüche 16 bis 52, dadurch gekennzeichnet, dass die Datenübertragungseinheit derart ausgelegt ist, dass eine Datenübertragungsverbindung zwischen Digitalkamera und Recheneinheit zur Verfügung gestellt wird.
  54. System nach einem der Ansprüche 52 bis 53, dadurch gekennzeichnet, dass das System derart ausgelegt ist, dass mittels der Datenübertragungsverbindung elektronische Daten für die Erstellung einer Blickfelddarstellung auf der elektronischen Bildanzeige zur Verfügung gestellt wird.
  55. System, insbesondere zur Darbietung einer Blickfelddarstellung umfassen - einen Markerträger, bevorzugt einen portablen Markerträger - mindestens eine Kamera, insbesondere Digitalkamera - eine elektronische Bildanzeige - eine Recheneinheit, dadurch gekennzeichnet, dass die Recheneinheit eine mobile Recheneinheit, insbesondere ein Smartphone, ein Laptop oder ein Tablet ist
  56. System, insbesondere zur Darbietung einer Blickfelddarstellung umfassend - einen Markerträger, bevorzugt einen portablen Markerträger - mindestens eine Kamera, insbesondere Digitalkamera - eine elektronische Bildanzeige, dadurch gekennzeichnet, dass das System ein Steuerelement umfasst.
  57. System nach Anspruch 56, dadurch gekennzeichnet, dass das Steuerelement mit einer Recheneinheit verbindbar ist.
  58. System nach einem der Ansprüche 56 bis 57, dadurch gekennzeichnet, dass das Steuerelement ein Spracherkennungsmodul, insbesondere ein Spracherkennungsmodul mit Mikrofon, umfasst.
  59. System nach einem der Ansprüche 56 bis 57, dadurch gekennzeichnet, dass das Steuerelement eine Gestenerkennungseinheit umfasst.
  60. System, insbesondere zur Darbietung einer Blickfelddarstellung, umfassend - einen Markerträger, bevorzugt einen portablen Markerträger - mindestens eine Kamera, insbesondere eine Digitalkamera - eine elektronische Bildanzeige dadurch gekennzeichnet, dass das System eine Datenübertragungseinheit umfasst, die eine Datenübertragungsverbindung zur Verfügung stellt.
  61. System nach Anspruch 60, dadurch gekennzeichnet, dass die Datenübertragungsverbindung insbesondere eine Infrarotverbindung ist.
DE202014011540.0U 2014-05-13 2014-05-13 System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille Expired - Lifetime DE202014011540U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202014011540.0U DE202014011540U1 (de) 2014-05-13 2014-05-13 System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202014011540.0U DE202014011540U1 (de) 2014-05-13 2014-05-13 System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille

Publications (1)

Publication Number Publication Date
DE202014011540U1 true DE202014011540U1 (de) 2022-02-28

Family

ID=80738360

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014011540.0U Expired - Lifetime DE202014011540U1 (de) 2014-05-13 2014-05-13 System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille

Country Status (1)

Country Link
DE (1) DE202014011540U1 (de)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US4884219A (en) 1987-01-21 1989-11-28 W. Industries Limited Method and apparatus for the perception of computer-generated imagery
WO1998030977A1 (en) 1997-01-13 1998-07-16 Qualisys Ab Method and arrangement for determining the position of an object
US20020001397A1 (en) 1997-10-30 2002-01-03 Takatoshi Ishikawa Screen image observing device and method
DE69132952T2 (de) 1990-11-30 2002-07-04 Sun Microsystems Inc Kompakter kopfspurfolgsystem für billiges virtuelle realität system
WO2002063456A1 (en) 2001-02-08 2002-08-15 Anderson Technologies Pty Ltd Optical tracking computer interface
DE60301987T2 (de) 2002-03-07 2006-08-03 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Videoverfolgung einer am Kopf montierten Bildanzeigevorrichtung
WO2008055262A2 (en) 2006-11-02 2008-05-08 Sensics, Inc. Systems and methods for a head-mounted display
GB2451461A (en) 2007-07-28 2009-02-04 Naveen Chawla Camera based 3D user and wand tracking human-computer interaction system
US7529387B2 (en) 2004-05-14 2009-05-05 Canon Kabushiki Kaisha Placement information estimating method and information processing device
US20100232727A1 (en) 2007-05-22 2010-09-16 Metaio Gmbh Camera pose estimation apparatus and method for augmented reality imaging
WO2011141531A1 (de) 2010-05-11 2011-11-17 Movolution Gmbh Bewegungsanalyse- und/oder -verfolgungssystem
US8081815B2 (en) 2006-08-11 2011-12-20 Canon Kabushiki Kaisha Marker arrangement information measuring apparatus and method
US20120095589A1 (en) 2010-10-15 2012-04-19 Arkady Vapnik System and method for 3d shape measurements and for virtual fitting room internet service
US20120121124A1 (en) 2010-01-04 2012-05-17 The Board Of Trustees Of The Leland Stanford Junior University Method for optical pose detection
US20120169887A1 (en) 2011-01-05 2012-07-05 Ailive Inc. Method and system for head tracking and pose estimation
US8217995B2 (en) 2008-01-18 2012-07-10 Lockheed Martin Corporation Providing a collaborative immersive environment using a spherical camera and motion capture

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US4884219A (en) 1987-01-21 1989-11-28 W. Industries Limited Method and apparatus for the perception of computer-generated imagery
DE69132952T2 (de) 1990-11-30 2002-07-04 Sun Microsystems Inc Kompakter kopfspurfolgsystem für billiges virtuelle realität system
WO1998030977A1 (en) 1997-01-13 1998-07-16 Qualisys Ab Method and arrangement for determining the position of an object
US20020001397A1 (en) 1997-10-30 2002-01-03 Takatoshi Ishikawa Screen image observing device and method
WO2002063456A1 (en) 2001-02-08 2002-08-15 Anderson Technologies Pty Ltd Optical tracking computer interface
DE60301987T2 (de) 2002-03-07 2006-08-03 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Videoverfolgung einer am Kopf montierten Bildanzeigevorrichtung
US7529387B2 (en) 2004-05-14 2009-05-05 Canon Kabushiki Kaisha Placement information estimating method and information processing device
US8081815B2 (en) 2006-08-11 2011-12-20 Canon Kabushiki Kaisha Marker arrangement information measuring apparatus and method
WO2008055262A2 (en) 2006-11-02 2008-05-08 Sensics, Inc. Systems and methods for a head-mounted display
US20100232727A1 (en) 2007-05-22 2010-09-16 Metaio Gmbh Camera pose estimation apparatus and method for augmented reality imaging
GB2451461A (en) 2007-07-28 2009-02-04 Naveen Chawla Camera based 3D user and wand tracking human-computer interaction system
US8217995B2 (en) 2008-01-18 2012-07-10 Lockheed Martin Corporation Providing a collaborative immersive environment using a spherical camera and motion capture
US20120121124A1 (en) 2010-01-04 2012-05-17 The Board Of Trustees Of The Leland Stanford Junior University Method for optical pose detection
WO2011141531A1 (de) 2010-05-11 2011-11-17 Movolution Gmbh Bewegungsanalyse- und/oder -verfolgungssystem
US20120095589A1 (en) 2010-10-15 2012-04-19 Arkady Vapnik System and method for 3d shape measurements and for virtual fitting room internet service
US20120169887A1 (en) 2011-01-05 2012-07-05 Ailive Inc. Method and system for head tracking and pose estimation

Similar Documents

Publication Publication Date Title
DE102014013677B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE102014013678B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
CN109938837B (zh) 光学跟踪系统及光学跟踪方法
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102015122842A1 (de) Kalibrierplatte zum Kalibrieren einer 3D-Messvorrichtung und Verfahren hierfür
DE102012108567A1 (de) Verfahren und Vorrichtung zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE102014106718B4 (de) System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet
DE102006005036A1 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
DE102008023439B4 (de) Augmented Reality Fernglas zur Navigationsunterstützung
DE102012023623A1 (de) Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
DE102013100569A1 (de) Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung
EP3584536B1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
EP3959497B1 (de) Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE3908575C2 (de)
DE202014011540U1 (de) System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen
DE102014019672B3 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit Wellenlängenüberprüfung
EP3739291A1 (de) Vollautomatisches positions- und orientierungsbestimmungsverfahren für einen terrestrischen laserscanner
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102014105011B4 (de) System zur Visualisierung des Sichtfeldes einer optischen Vorrichtung
DE102018102988A1 (de) Verfahren und Vorrichtung zur Bestimmung und Überwachung der Position und Orientierung eines zylindrischen Objekts

Legal Events

Date Code Title Description
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R207 Utility model specification
R071 Expiry of right