DE102012209664A1 - Vorrichtung und verfahren zum kalibrieren von trackingsystemen - Google Patents

Vorrichtung und verfahren zum kalibrieren von trackingsystemen Download PDF

Info

Publication number
DE102012209664A1
DE102012209664A1 DE201210209664 DE102012209664A DE102012209664A1 DE 102012209664 A1 DE102012209664 A1 DE 102012209664A1 DE 201210209664 DE201210209664 DE 201210209664 DE 102012209664 A DE102012209664 A DE 102012209664A DE 102012209664 A1 DE102012209664 A1 DE 102012209664A1
Authority
DE
Germany
Prior art keywords
position data
tracking system
coordinate system
artificial
artificial body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210209664
Other languages
English (en)
Other versions
DE102012209664B4 (de
Inventor
David Przewozny
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102012209664.7A priority Critical patent/DE102012209664B4/de
Publication of DE102012209664A1 publication Critical patent/DE102012209664A1/de
Application granted granted Critical
Publication of DE102012209664B4 publication Critical patent/DE102012209664B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Eine Vorrichtung zum Kalibrieren eines ersten Trackingsystems wird bereitgestellt. Die Vorrichtung zum Kalibrieren umfasst eine Schnittstelle (110) und eine Kalibriereinheit (120). Die Kalibriereinheit (120) ist dafür eingerichtet, basierend auf jeder für eine Vielzahl der Positionierungen eines künstlichen Körpers bestimmten ersten Positionsdaten und basierend auf jeder für eine Vielzahl von Positionierungen des künstlichen Körpers bestimmten zweiten Positionsdaten eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.

Description

  • Die vorliegende Erfindung betrifft Trackingsysteme und, im Besonderen, eine Vorrichtung und ein Verfahren zum Kalibrieren von Trackingsystemen.
  • Trackingsysteme gewinnen immer mehr an Bedeutung. Während traditionelle Computersysteme als Eingabegeräte eine Tastatur oder Maus verwenden, treten Trackingsysteme zunehmend an deren Stelle. Konventionelle Trackingsysteme verwenden dazu oftmals ein mit Markern versehenes Zeigegerät. Der Nutzer eines solchen Zeigegeräts muss dann zur Ansteuerung des Computers das Zeigegerät in die Hand nehmen, und steuert dann den Computer durch Bewegung des Zeigegeräts durch den dreidimensionalen Raum. So kann z. B. ein Zeiger einer grafischen Benutzeroberfläche durch die Bewegung des Zeigegeräts im dreidimensionalen Raum gesteuert werden. Dabei wird die Bewegung des Zeigegeräts von einer oder mehreren Kameras aufgenommen, von einem Bildverarbeitungssystem ausgewertet und so schließlich die Bewegung des z. B. mit Markern ausgestatteten Zeigegeräts im dreidimensionalen Raum entsprechend nachverfolgt. Die Nachverfolgung der Bewegung des mit Markern versehenen Zeigegeräts im dreidimensionalen Raum kann dann in eine Bewegung z. B. des Zeigers der grafischen Benutzeroberfläche in einem Computersystem entsprechend umgesetzt werden. Auch lassen sich z. B. dreidimensionale Objekte einer dreidimensionalen Projektion entsprechend der Bewegung des mit Markern versehenen Zeigegeräts virtuell verschieben oder rotieren.
  • Hierzu nehmen beispielsweise in einem markerbasierten Trackingsystem Kameras das mit Markern versehene Zeigegeräts auf, und das markerbasierte Trackingsystem setzt diese Position in Positionsdaten um. Nehmen mehrere Kameras des markerbasierten Trackingsystems mehrere Bilder von der Szenerie auf, und wird die Position der Marker des Zeigegeräts für jedes Bild separat bestimmt, so bezieht sich jede der ermittelten Positionsangaben in der Regel auf jeweils ein eigenes Koordinatensystem, das hier als Kamera-Koordinatensystem bezeichnet wird.
  • Das markerbasierte Koordinatensystem ermittelt hieraus eine eindeutige Position des Markers. Diese Position des Markers ist dann auf ein Koordinatensystem bezogen, das spezifisch für das markerbasierte Trackingsystem ist und daher als markerbasiertes Koordinatensystem bezeichnet werden kann.
  • Um eine derartige Umsetzung in ein eindeutiges Koordinatensystem zu bewerkstelligen, wird das markerbasierte Trackingsystem in der Regel zunächst kalibriert. Hierzu kann ein durch das Trackingsystem zu überwachender Bereich zunächst mit Markern ausgelegt werden. Durch das Aufnehmen dieser Marker durch die Kameras des markerbasierten Koordinatensystems kann dann eine Kalibrierung des markerbasierten Koordinatensystems vorgenommen werden. So kann zum Beispiel festgelegt sein, dass bestimmte ausgelegte Marker bestimmte Positionen im markerbasierten Koordinatensystem darstellen.
  • Eine neue Entwicklung auf dem Gebiet der Trackingsysteme sind markerlose Trackingsysteme, wie z. B. markerlose Hand- oder Kopf-Trackingsysteme. Bei derartigen markerlosen Trackingsystemen ist es nicht mehr erforderlich, ein Zeigegerät, das mit Marker versehen ist, durch den dreidimensionalen Raum zu bewegen. Stattdessen bewegt ein Nutzer, der ein computerbasiertes System ansteuern will, z. B. seinen Finger im dreidimensionalen Raum.
  • Kameras des markerlosen Trackingsystems nehmen die Bewegung der Hand, und im Speziellen, die Bewegung des Fingers auf (soweit sich die Hand im vom Trackingsystem überwachten Bereich befindet, z. B. dem Bereich, der von den Kameras erfasst wird). Zunächst wird dann die Position eines identifizierbaren Bereiches in einem Kamera-Koordinatensystem bestimmt. Ein solcher identifizierbarer Bereich kann, wie bereits angedeutet, z. B. eine Fingerkuppe des Fingers sein. Alternativ könnte auch statt der Nachverfolgung einer Fingerkuppe eines Fingers eine Nachverfolgung der Augen eines Kopfes eines Nutzers durchgeführt werden.
  • Techniken der Mustererkennung können hierbei zum Einsatz kommen, um die Position der Fingerkuppe im Kamera-Koordinatensystem zu bestimmen. So können z. B. digitale Filter eingesetzt werden, um die Mitte einer Fingerkuppe zu bestimmen, die dann als Position der Fingerkuppe gilt. Eine derartige Position wird zunächst in einem oder mehreren Koordinatensystemen bestimmt, das oftmals durch den Aufnahmebereich der Kameras definiert sind und die daher, wie bereits angesprochen, als Kamera-Koordinatensysteme bezeichnet werden.
  • Sofern mehr als zwei Aufnahmebilder der Szenerie erstellt wurden, kann die Position des identifizierbaren Bereichs, also z. B. der Fingerkuppe, dann wiederum für ein einziges, eindeutiges Koordinatensystem bestimmt werden, die man als markerloses Koordinatensystem bezeichnen kann.
  • Die Position des identifizierbaren Bereiches im markerlosen Koordinatensystem ist dann oftmals noch in ein anderes Koordinatensystem zu transformieren. Dieses andere Koordinatensystem kann zum Beispiel ein markerbasiertes Koordinatensystem eines markerbasierten Trackingsystems sein, besonders dann, wenn ein solches markerbasiertes Trackingsystem parallel zu dem markerlosen Trackingsystem eingesetzt wird.
  • Oder aber, das andere Koordinatensystem, in das zu transformieren ist, ist ein anderes Zielkoordinatensystem. Wenn ein markerbasiertes Trackingsystem parallel zu dem markerlosen Trackingsystem eingesetzt wird, existiert dann oftmals schon eine Transformationsvorschrift zur Transformation von Positionsdaten des markerbasierten Koordinatensystem in das Zielkoordinatensystem.
  • Zu einer Transformation von Positionsdaten eines ersten markerlosen Koordinatensystems in ein zweites markerbasiertes Koordinatensystem bzw. zur Transformation von Positionsdaten aus einem oder mehreren Kamera-Koordinatensystemen eines markerlosen Trackingsystems in ein zweites markerbasiertes Koordinatensystem ist eine Kalibrierung des markerlosen Trackingsystems erforderlich.
  • Zusammenfassend kann gesagt werden, dass bei der Kalibrierung optischer Tracker sich die Kalibrierung des Trackingsystems auf ein Koordinatensystem bezieht, welches durch das Bildaufnahmesystem, z. B. Kamerachip und Optik, festgelegt wird. Für die Kalibrierung des optischen Systems eines Trackers stehen verschiedene Kalibrierverfahren zur Verfügung.
  • Für die meisten Aufgaben wird die Koordinatenausgabe des Trackingsystems in einem anderen Koordinatensystem z. B. Bildschirmkoordinaten oder Verzerrungsparameter gefordert. Systembedingt sind Referenzpunkte in diesem Koordinatensystem für das zu kalibrierende Trackingsystem unsichtbar.
  • Zur Kalibrierung sind bislang folgende Verfahren bekannt:
    Nach einem ersten Ansatz wird die Koordinatensystemtransformation zwischen dem Trackingsystem und dem Gerät, das die Trackingdaten verwendet, manuell durchgeführt, indem die Parameter der Koordinatensystemtransformation iterativ angepasst werden. Ein erfahrener Benutzer muss dazu die Abweichung der Kalibrierung von der Sollposition erkennen und die Kalibrierung des Trackingsystems verändern. Die Güte der Kalibrierung ist wesentlich durch die Sorgfalt und die Erfahrung des Anwenders bestimmt.
  • Gemäß einem zweiten Ansatz wird die Koordinatensystemtransformation zwischen dem Trackingsystem und dem Gerät, das die Trackingdaten verwendet, aus der Aufbauzeichnung abgeleitet. Bei diesem Vorgehen können Fertigungstoleranzen nicht korrigiert werden. Zudem ist ein freies Aufstellen des Systems nicht möglich.
  • Gemäß einem dritten Ansatz aus dem Stand der Technik ist ein Anfahren von festen Kalibrierpunkten im Raum an einer Kalibriereinrichtung vorgesehen.
  • Wünschenswert wäre es jedoch, virtuelle Kalibrierpunkte im Raum objektiv einzumessen.
  • Aufgabe der vorliegenden Erfindung ist es daher, verbesserte Konzepte zum Kalibrieren von Trackingsystemen bereitzustellen.
  • Die Aufgabe der vorliegenden Erfindung wird durch eine Vorrichtung nach Anspruch 1, durch ein Verfahren nach Anspruch 15 und durch ein Computerprogramm nach Anspruch 16 gelöst.
  • Eine Vorrichtung zum Kalibrieren eines ersten Trackingsystems wird bereitgestellt. Die Vorrichtung zum Kalibrieren umfasst eine Schnittstelle und eine Kalibriereinheit. Die Kalibriereinheit ist dafür eingerichtet, basierend auf jeder für eine Vielzahl der Positionierungen eines künstlichen Körpers bestimmten ersten Positionsdaten und basierend auf jeder für eine Vielzahl von Positionierungen des künstlichen Körpers bestimmten zweiten Positionsdaten eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.
  • Insbesondere, wird eine Vorrichtung zum Kalibrieren eines ersten Trackingsystems bereitgestellt. Das erste Trackingsystem ist dafür ausgelegt, einen identifizierbaren Bereich eines künstlichen Körpers zu lokalisieren. Die Vorrichtung umfasst eine Schnittstelle und eine Kalibriereinheit.
  • Die Schnittstelle ist dafür eingerichtet, zu jeder einer Vielzahl von Positionierungen eines künstlichen Körpers in einem von dem ersten Trackingsystem zu überwachenden Bereich jeweils erste Positionsdaten von dem ersten Trackingsystem zu erhalten, wobei die ersten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers jeweils eine erste Position eines identifizierbaren Bereichs des künstlichen Körpers angeben, und wobei die ersten Positionsdaten auf ein erstes Koordinatensystem bezogen sind.
  • Des Weiteren ist die Schnittstelle ferner dafür eingerichtet, zu jeder der Vielzahl von Positionierungen des künstlichen Körpers in dem von dem ersten Trackingsystem zu überwachenden Bereich jeweils zweite Positionsdaten von einem anderen zweiten Trackingsystem zu erhalten, die zu der jeweiligen Positionierung des künstlichen Körpers jeweils eine zweite Position angeben, die durch einen oder mehrere an dem künstlichen Körper angebrachte Marker festgelegt ist, wobei die zweiten Positionsdaten auf ein anderes, zweites Koordinatensystem bezogen sind.
  • Die Kalibriereinheit ist dafür eingerichtet, basierend auf jeder der für die Vielzahl der Positionierungen des künstlichen Körpers bestimmten ersten Positionsdaten und basierend auf jeder der für die Vielzahl von Positionierungen des künstlichen Körpers bestimmten zweiten Positionsdaten eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.
  • Bei dem ersten Trackingsystem kann es sich um ein markerloses Trackingsystem handeln. Bei dem zweiten Trackingsystem kann es sich um ein markerbasiertes Trackingsystem handeln.
  • Zum Beispiel kann die Kalibriereinheit eingerichtet sein, eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem beziehen, in das zweite Koordinatensystem geeignet ist. Z. B. kann das erste Koordinatensystem ein markerloses Koordinatensystem und das zweite Koordinatensystem ein markerbasiertes Koordinatensystem sein.
  • Oder, die Kalibriereinheit kann beispielsweise eingerichtet sein, eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem beziehen, in ein weiteres viertes Koordinatensystem geeignet ist. Z. B. kann das erste Koordinatensystem ein markerloses Koordinatensystem und das zweite Koordinatensystem ein Zielkoordinatensystem sein, das nicht das markerbasierte Koordinatensystem ist.
  • Oder wiederum, die Kalibriereinheit kann zum Beispiel eingerichtet sein, eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem geeignet ist. Z. B. kann das erste Koordinatensystem ein Kamera-Koordinatensystem eines markerlosen Trackingsystem sein und das zweite Koordinatensystem ein markerbasiertes Koordinatensysteme sein.
  • Oder, die Kalibriereinheit kann zum Beispiel eingerichtet sein, eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf ein weiteres drittes Koordinatensystem beziehen, in ein weiteres viertes Koordinatensystem geeignet ist. Z. B. kann das erste Koordinatensystem ein Kamera-Koordinatensystem eines markerlosen Trackingsystem sein und das zweite Koordinatensystem ein Zielkoordinatensystem sein, das nicht das markerbasierte Koordinatensystem ist.
  • Durch die geschickte Kombination mehrerer Trackingsysteme, nämlich einem markerlosen Trackingsystem und einem markerbasierten Trackingsystem, die das gleiche Objekt tracken, wird es möglich, virtuelle Kalibrierpunkte im Raum objektiv einzumessen. Im Gegensatz zum Anfahren mit im Raum festen Kalibrierpunkten ist es möglich, die Kalibrierpunkte z. B. gleichmäßig, sinnvoll, im Raum zu verteilen und dadurch eine gute Datenbasis für die Berechnung zu erreichen. Durch den Verzicht auf feste Kalibrierpunkte treten weniger Messfehler bei den optischen Trackern auf. Der Aufwand für den Aufbau eines Rasters fester Kalibrierpunkte, der sehr aufwendig ist, entfällt.
  • In einer Ausführungsform kann die Kalibriereinheit dafür eingerichtet sein, basierend auf der für jede der Vielzahl von Positionierungen des künstlichen Körpers bestimmten ersten Positionsdaten und basierend auf der für jede der Vielzahl von Positionierungen des künstlichen Körpers bestimmten zweiten Positionsdaten, dritte Positionsdaten zu bestimmen, die jeweils die erste Position des identifizierbaren Bereichs des künstlichen Körpers angeben, wobei die dritten Positionsdaten auf das zweite Koordinatensystem bezogen sind, und wobei die Kalibriereinheit dafür eingerichtet ist, die Transformationsregel basierend auf den ersten Positionsdaten und den dritten Positionsdaten zu bestimmen.
  • Gemäß einer weiteren Ausführungsform kann die Kalibriereinheit dafür eingerichtet sein, die dritten Positionsdaten, die auf das zweite Koordinatensystem bezogen sind, basierend auf einem Abstand der jeweiligen ersten Position des identifizierbaren Bereichs und der jeweiligen zweiten Position des einen oder der mehreren Marker zu bestimmen.
  • In einer Ausführungsform kann die Kalibriereinheit dafür eingerichtet ist, zur Bestimmung der Transformationsregel eine erste Transformationsmatrix (Tmarker) zu bestimmen, die weitere Positionsdaten, die auf das erste Koordinatensystem bezogen sind, in das zweite Koordinatensystem transformiert.
  • Gemäß einer Ausführungsform kann die Kalibriereinheit dafür eingerichtet sein, als Transformationsregel eine zweite Matrix (Ttotal) zu bestimmen, die ein Matrixprodukt der ersten Transformationsmatrix (Tmarker) und wenigstens einer weiteren dritten Transformationsmatrix ist.
  • In einer Ausführungsform kann der künstliche Körper eine Kunsthand sein, wobei der identifizierbare Bereich eine Fingerkuppe der Kunsthand ist, und wobei die Kalibriereinheit dafür eingerichtet ist, die Transformationsregel basierend auf einem Abstand zwischen der Position der Fingerkuppe und der zweiten Position, die durch einen oder mehrere an dem künstlichen Körper angebrachte Marker festgelegt ist, zu bestimmen.
  • Gemäß einer weiteren Ausführungsform kann der künstliche Körper ein Kunstkopf ist, wobei der identifizierbare Bereich ein künstliches Auge ist, und wobei die Kalibriereinheit dafür eingerichtet ist, die Transformationsregel basierend auf einem Abstand zwischen dem künstlichen Auge und der zweiten Position, die durch einen oder mehrere an dem künstlichen Körper angebrachte Marker festgelegt ist, zu bestimmen.
  • Ferner wird ein Trackingsystem bereitgestellt. Das Trackingsystem umfasst eine Vorrichtung zum Bestimmen von Trackingsystem-Positionsdaten, und eine Vorrichtung zum Kalibrieren nach einer der obigen Ausführungsformen. Das Trackingsystem ist dafür eingerichtet, die Trackingsystem-Positionsdaten der Schnittstelle der Vorrichtung zum Kalibrieren als die ersten Positionsdaten zu übergeben.
  • In einer Ausführungsform kann das Trackingsystem ferner eine Auswerteeinheit umfassen, die zur Auswertung von Kamerabildern geeignet ist, und die dafür eingerichtet ist, die Position eines identifizierbaren Bereichs als die Trackingsystem-Positionsdaten zu bestimmen.
  • In einer weiteren Ausführungsform kann die Auswerteeinheit dafür eingerichtet sein, die Position des identifizierbaren Bereichs durch Anwendung eines oder mehrerer Mustererkennungs-Algorithmen zu bestimmen.
  • Gemäß einer weiteren Ausführungsform kann das Trackingsystem ferner ein oder mehrere Kameras aufweisen, die zur Aufnahme von Kamerabildern geeignet sind, um die Position des identifizierbaren Bereichs zu bestimmen.
  • In einer Ausführungsform kann der künstliche Körper ein Kunstkopf sein, wobei der identifizierbare Bereich ein künstliches Auge sein kann, wobei an dem künstlichen Körper ein oder mehrere weitere Kameras angeordnet sein können, und wobei das Trackingsystem dafür ausgelegt sein kann, aus dem von den ein oder mehreren weiteren Kameras aufgenommenen ein oder mehreren Teilbereichen einer Bildfläche die Trackingsystem-Positionsdaten zu bestimmen und der Vorrichtung zum Kalibrieren als die ersten Positionsdaten zu übergeben.
  • Ein Verfahren zum Kalibrieren eines ersten Trackingsystems, wird bereitgestellt, wobei das erste Trackingsystem dafür ausgelegt ist, einen identifizierbaren Bereich eines künstlichen Körpers zu lokalisieren. Das Verfahren umfasst:
    Empfangen erster Positionsdaten von dem ersten Trackingsystem zu jeder einer Vielzahl von Positionierungen eines künstlichen Körpers in einem von einem ersten Trackingsystem zu überwachenden Bereich, wobei die ersten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers jeweils eine erste Position eines identifizierbaren Bereichs des künstlichen Körpers angeben, und wobei jede der ersten Positionsdaten auf ein erstes Koordinatensystem bezogen sind,
    Empfangen zweiter Positionsdaten von einem zweiten Trackingsystem zu jeder der Vielzahl von Positionierungen des künstlichen Körpers in dem von dem ersten Trackingsystem zu überwachenden Bereich, wobei die zweiten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers jeweils eine zweite Position angeben, die durch einen oder mehrere an dem künstlichen Körper angebrachte Marker festgelegt ist, wobei die zweiten Positionsdaten auf ein anderes, zweites Koordinatensystem bezogen sind, und wobei die zweiten Positionsdaten von einem anderen, zweiten Trackingsystem erhalten werden, und Bestimmen einer Transformationsregel basierend auf den für die Vielzahl der Positionierungen des künstlichen Körpers bestimmen ersten Positionsdaten und basierend auf den für die Vielzahl der Positionierungen des künstlichen Körpers bestimmen zweiten Positionsdaten, so dass die Transformationsregel zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.
  • Ferner wird ein Computerprogramm bereitgestellt mit einem Programmcode zur Durchführung des Verfahrens gemäß einer der oben beschriebenen Ausführungsformen, wenn das Computerprogramm auf einem Computer oder Mikrocontroller abläuft.
  • Bevorzugte Ausführungsformen der Erfindung finden sich in den abhängigen Ansprüchen.
  • Im Folgenden werden bevorzugte Ausführungsformen der Erfindung unter Bezugnahme auf die Zeichnungen erläutert, wobei
  • 1 eine Vorrichtung zum Kalibrieren eines ersten Trackingsystems gemäß einer Ausführungsform zeigt,
  • 2 eine Kunsthand in einem ersten Koordinatensystem und einem zweiten Koordinatensystem gemäß einer Ausführungsform zeigt,
  • 3 das Anordnen einer Kunsthand an verschiedenen Positionen in einem zu überwachenden Bereich gemäß einer Ausführungsform zeigt,
  • 4 eine Transformationsmatrix Tmarker und ihre Anwendung auf erste Positionsdaten pos1 zur Ermittlung von zweiten Positionsdaten pos2 gemäß einer Ausführungsform zeigt,
  • 5 die Position eines Kunstkopfes in einem ersten Koordinatensystem und einem zweiten Koordinatensystem gemäß einer Ausführungsform zeigt, und
  • 6 einen Teilbereich und eines Bildes zeigt, wobei der Teilbereich von Kameras an einem Kunstkopf gemäß einer Ausführungsform aufgenommen wird.
  • 1 zeigt eine Vorrichtung zum Kalibrieren eines ersten Trackingsystems. Das erste Trackingsystem ist dafür ausgelegt, einen identifizierbaren Bereich eines künstlichen Körpers zu lokalisieren. Die Vorrichtung umfasst eine Schnittstelle 110 und eine Kalibriereinheit 120.
  • Die Schnittstelle 110 ist dafür eingerichtet, zu jeder einer Vielzahl von Positionierungen eines künstlichen Körpers in einem von dem ersten Trackingsystem zu überwachenden Bereich jeweils erste Positionsdaten von dem ersten Trackingsystem zu erhalten, wobei die ersten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers jeweils eine erste Position eines identifizierbaren Bereichs des künstlichen Körpers angeben, und wobei die ersten Positionsdaten auf ein erstes Koordinatensystem bezogen sind.
  • Des Weiteren ist die Schnittstelle 110 dafür eingerichtet, zu jeder der Vielzahl von Positionierungen des künstlichen Körpers in denn von dem ersten Trackingsystem zu überwachenden Bereich jeweils zweite Positionsdaten von einem anderen zweiten Trackingsystem zu erhalten, die zu der jeweiligen Positionierung des künstlichen Körpers jeweils eine zweite Position angeben, die durch einen oder mehrere an dem künstlichen Körper angebrachte Marker festgelegt ist, wobei die zweiten Positionsdaten auf ein anderes, zweites Koordinatensystem bezogen sind.
  • Die Kalibriereinheit 120 ist dafür eingerichtet, basierend auf jeder der für die Vielzahl der Positionierungen des künstlichen Körpers bestimmten ersten Positionsdaten und basierend auf jeder der für die Vielzahl von Positionierungen des künstlichen Körpers bestimmten zweiten Positionsdaten eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.
  • Bei dem ersten Trackingsystem kann es sich um ein markerloses Trackingsystem handeln. Bei dem zweiten Trackingsystem kann es sich um ein markerbasiertes Trackingsystem handeln.
  • In dem Ausführungsbeispiel der 1 gibt die Schnittstelle 110 die empfangenen ersten und zweiten Positionsdaten an die Kalibriereinheit 120 weiter. Die Kalibriereinheit 120 ist dann dazu eingerichtet, das erste Trackingsystem entsprechend zu kalibrieren.
  • Um z. B. das erste Trackingsystem so zu kalibrieren, dass die ersten Positionsdaten des ersten Koordinatensystems in das zweite Koordinatensystem überführt werden können, kann z. B. eine Transformationsmatrix Tmarker basierend auf den ersten Positionsdaten und den zweiten Positionsdaten berechnet werden. Hierfür ist sollte eine Anzahl von Positionsdaten-Paaren zur Verfügung stehen. Ein Positionsdaten-Paar umfasst dabei erste Positionsdaten p1 und zweite Positionsdaten p2, die einander zugeordnet sind. Die ersten Positionsdaten p1 und die zweiten Positionsdaten p2 eines Positionsdaten-Paares können dabei ermittelt werden, indem ein erstes Kamerasystem, das z. B. einem markerlosen Trackingsystem zugeordnet ist, einen ersten Bereich aufnimmt, um ein oder mehrere Aufnahmebilder des Bereiches zu erhalten. Das erste Trackingsystem, z. B. das markerlose Trackingsystem, kann dann in diesem Aufnahmebild die Position eines identifizierbaren Bereiches bestimmen. Bei diesem identifizierbaren Bereich kann es sich z. B. um eine Fingerkuppe eines Fingers einer Kunsthand handeln. Alternativ könnte es sich auch um Augen eines künstlichen Kopfes handeln, deren Position lokalisiert wird. Das markerlose Trackingsystem kann dann die ermittelten Positionsdaten der Schnittstelle 110 der Vorrichtung zum Kalibrieren übergeben. Diese ersten Positionsdaten können dabei z. B. die Position des identifizierbaren Bereichs in einem einzigen Koordinatensystem des markerlosen Trackingssystems eindeutig angeben, also in einem markerlosen Koordinatensystem.
  • Ebenso können die zweiten Positionsdaten des Positionsdaten-Paares bestimmt werden. Ein zweites Kamerasystem, das wiederum ein oder mehrere Kameras umfasst, nimmt dabei denselben, oder im Wesentlichen denselben Bereich auf, der auch schon von den Kameras des ersten Kamerasystems des markerlosen Trackingsystems aufgenommen wurde.
  • Dabei ist zu beachten, dass die Kameras des zweiten Trackingsystems dieselbe Situation aufnehmen, die auch schon von den Kameras des ersten Trackingsystems aufgenommen wurde. Bevorzugt nehmen daher die Kameras des ersten und des zweiten Trackingsystems die Situation zeitgleich, oder im Wesentlichen zeitgleich auf.
  • Bei dem zweiten Trackingsystem kann es sich um ein markerbasiertes Trackingsystem handeln. Die von den Kameras des markerbasierten Trackingsystems aufgenommenen Bilder werden dann von dem zweiten, markerbasierten Trackingsystem ausgewertet, wobei die Position eines oder mehrerer Marker in den von den Kameras des zweiten markerbasierten Trackingsystems aufgenommenen Bildern in einem Kamera-Koordinatensystem des markerbasierten Trackingsystems angegeben werden können. In einer Ausführungsform werden die Positionsdaten des Kamera-Koordinatensystems des markerbasierten Trackingsystems in Positionsdaten eines einzigen Koordinatensystems, das für das markerbasierte Trackingsystem spezifisch ist, d. h. in ein markerbasiertes Koordinatensystem, umgesetzt. Diese Positionsdaten werden dann als zweite Positionsdaten der Schnittstelle 110 der Vorrichtung zum Kalibrieren übergeben.
  • Jeweils die ersten Positionsdaten im markerlosen Koordinatensystem und die zweiten Positionsdaten im markerbasierten Koordinatensystem, die sich auf dieselbe Szenerie, also z. B. dieselbe Positionierung z. B. einer Kunsthand im vom ersten markerlosen Trackingsystem zu überwachenden Bereich beziehen, bilden dann ein Positionsdaten-Paar.
  • Gemäß einer Ausführungsform wird nun die Kalibrierung des ersten markerlosen Trackingsystems wie folgt durchgeführt:
    Eine künstliche Hand, im Folgenden als Kunsthand bezeichnet, wird an einer bestimmten Stelle mit Marker versehen, die dafür geeignet sind, von dem markerbasierten zweiten Trackingsystem erkannt zu werden. Zudem weist die Kunsthand einen identifizierbaren Bereich auf, z. B. eine Fingerkuppe der Kunsthand.
  • Nun wird die Kunsthand an verschiedenen Stellen des Bereiches positioniert, den das erste Trackingsystem überwachen soll (der zu überwachende Bereich).
  • Für jede dieser Positionierungen der Kunsthand werden dann erste Positionsdaten des markerlosen Trackingsystems und zweite Positionsdaten des markerbasierten Trackingsystems bestimmt. Die Bestimmung der ersten Positionsdaten und der zweiten Positionsdaten kann durch das markerlose, bzw. durch das markerbasierte Trackingsystem vorgenommen werden. Dabei bestimmt das markerlose Trackingsystem die Position des identifizierbaren Bereiches, z. B. der Fingerkuppe der Kunsthand als erste Positionsdaten in einem ersten markerlosen Koordinatensystem. Entsprechend werden durch das markerbasierte Trackingsystem zweite Positionsdaten bestimmt, die auf das markerbasierte zweite Koordinatensystem des markerbasierten Trackingsystems bezogen sind. Diese Koordinaten geben dabei dann die Position des an der Kunsthand angebrachten Markers an. Wurden mehrere Marker angebracht, z. B. zwei Marker, so kann als Position der zwei Marker z. B. die Mittelpunkt der Verbindungsstrecke zwischen den Positionen der beiden Marker bestimmt werden.
  • Es ist zu beachten, dass die Marker, die an der Kunsthand angebracht wurden, nicht im identifizierbaren Bereich, z. B. in dem Bereich der Fingerkuppe der Kunsthand angebracht werden dürfen. Denn dies würde ansonsten die Erkennung des identifizierbaren Bereiches, z. B. der Fingerkuppe, durch das markerlose Trackingsystem beeinträchtigen. Mit anderen Worten ist die Position des identifizierbaren Bereiches von der Position der Marker, die an dem künstlichen Körper angebracht sind, beabstandet zu wählen.
  • Dies führt dann dazu, dass nicht geschlossen werden kann, dass die Position des identifizierbaren Bereiches im ersten Koordinatensystem der Position der Marker im zweiten Koordinatensystem entspricht. Vielmehr ist es so, dass die Position der Marker in dem zweiten Koordinatensystem um einen gewissen Wert anzupassen ist, damit ein dritter Punkt im zweiten Koordinatensystem erhalten wird, der dem ersten Positionswert im ersten Koordinatensystem entspricht. So ist in einer Ausführungsform hierzu z. B. der Abstand zwischen der Position des Markers bzw. der Marker und der Position der Fingerkuppe zu berücksichtigen bzw. anzupassen.
  • Wurde dann allerdings die zweiten Positionsdaten des zweiten Koordinatensystems entsprechend angepasst, um so dritte Positionsdaten in dem zweiten Koordinatensystem zu erhalten, die die Position der Fingerkuppe im zweiten Koordinatensystem angeben, so können die ersten Positionsdaten des ersten Koordinatensystems in die dritten Positionsdaten des zweiten Koordinatensystems transformiert werden, um so Positionsdaten zu erhalten, die die Position der Fingerkuppe im zweiten Koordinatensystem angeben.
  • Im Rahmen der Kalibrierung werden nun für eine Vielzahl von Anordnungen der Kunsthand in dem von dem ersten, markerlosen Trackingsystem zu überwachenden Bereich eine Vielzahl von Positionsdaten-Paare bestimmt, die den zu überwachenden Bereich möglichst gut abdecken.
  • Mögliche Transformationsregeln können nun wie folgt gebildet werden:
    Sollen erste Positionsdaten, die bereits durch das markerlose Trackingsystem erfasst wurden, wie z. B. die Position einer Fingerkuppe, in das zweite Koordinatensystem überführt werden, so ist dies dann aufgrund der bei der Kalibrierung gewonnenen Zuordnungen problemlos möglich, wenn die ersten Positionsdaten solchen Positionsdaten entsprechen, zu denen ein Positionsdaten-Paar bereits bestimmt wurde. Sollen dagegen erste Positionsdaten des ersten Koordinatensystems in das zweite Koordinatensystem überführt werden, für die im Rahmen der Kalibrierung kein Paar aus ersten und zweiten Positionsdaten bestimmt wurden, so kann eine entsprechende zweite Position im zweiten Koordinatensystem z. B. näherungsweise bestimmt werden, indem ein Mittelwert derjenigen zweiter Positionsdaten gebildet wird, die zu den bereits ermittelten Positionsdaten-Paaren gehören, deren erste Positionsdaten zu dem aktuellen ersten Positionswert, die in das zweite Koordinatensystem überführt werden soll, benachbart ist.
  • Alternativ zu einer näherungsweisen Bestimmung durch eine Vielzahl von bestimmten Positionsdaten-Paaren, kann in einer bevorzugten Ausführungsform die Vielzahl der bestimmten Positionsdaten-Paare dazu verwendet werden, eine Transformationsmatrix Tmarker bestimmt werden, indem eine Vielzahl von Paaren aus ersten Positionsdaten des ersten Koordinatensystems und zweiten Positionsdaten des zweiten Koordinatensystems bestimmt wird, und dann eine entsprechende Transformationsmatrix basierend auf der Vielzahl der Positionsdaten-Paare bestimmt wird.
  • 2 verdeutlicht das hier bereitgestellte Vorgehen zur Kalibrierung. In 2 ist eine Kunsthand 210 gezeigt. Die Kunsthand weist eine Fingerkuppe 220 auf. Dabei stellt die Fingerkuppe 220 einen identifizierbaren Bereich der Kunsthand dar. Die Kunsthand selber ist ein künstlicher Körper, z. B. aus Plastik, der z. B. einer menschlichen Hand nachgebildet ist. Ferner sind an der Kunsthand ein oder mehrere Marker 230 angebracht, die von einem markerbasierten Trackingsystem lokalisiert werden können.
  • In 2 sind des Weiteren die Koordinatenachsen 242, 244, 246 eines ersten markerlosen Trackingsystems eingezeichnet. Das erste, markerlose Trackingsystem nimmt dabei mit einer oder mehreren Kameras die Kunsthand auf und lokalisiert einen identifizierbaren Bereich, wobei im Beispiel der 2 die Fingerkuppe des Zeigefingers der identifizierbare Bereich ist. Dazu kann das erste markerlose Trackingsystem beispielsweise Mustererkennungstechniken einsetzen, wie z. B. digitale Filter. Auf diese Weise ist es dem markerlosen Trackingsystem möglich, eine Position des identifizierbaren Bereiches, z. B. der Fingerkuppe zu bestimmen. Beispielsweise wird der Mittelpunkt 225 der Fingerkuppe unter Einsatz von Mustererkennungstechniken bestimmt. Die Position des Mittelpunkts wird dabei bezogen auf das erste, markerlose Koordinatensystem, das durch die Achsen 242, 244, 246 definiert ist, angegeben.
  • Beim Kalibrieren wird zudem durch das zweite markerbasierte Trackingsystem die Position des Markers 230 an der Kunsthand bestimmt. Hierzu setzt das markerbasierte Trackingsystem ein oder mehrere Kameras des markerbasierten Trackingsystems ein. Diese bestimmen die Position des Markers, z. B. durch den Einsatz von Mustererkennungstechniken, wie beispielsweise den Einsatz von digitalen Filtern. Die Position des Markers 230 wird vom markerbasierten Trackingsystem dann bezogen auf ein Koordinatensystem des markerbasierten Trackingsystems angegeben, also einem markerbasierten Koordinatensystem. In 2 ist das markerbasierte Trackingsystem durch die Achsen 252, 254, 256 definiert.
  • Nachfolgend soll nun die Zuordnung der ersten Positionsdaten, die die Position des Mittelpunkts der Fingerkuppe in einem markerlosen, ersten Koordinatensystem angeben, zu dritten Positionsdaten, die ebenfalls die Position des Mittelpunkts der Fingerkuppe, nun aber in einem zweiten, markerbasierten Koordinatensystem angeben, näher erläutert werden.
  • Zur vereinfachten Erläuterung wird jeweils die dritte Achse 246, 256 des markerlosen Koordinatensystems bzw. des markerbasierten Koordinatensystems vernachlässigt, und die Betrachtungen beschränken sich auf die Koordinatenachsen 242, 244 des ersten markerlosen Koordinatensystems und die Koordinatenachsen 252, 254 des zweiten, markerbasierten Koordinatensystems. In der praktischen Anwendung werden die dritten Koordinatenachsen 246, 256 jedoch ebenfalls berücksichtigt, und auch für diese die Koordinatenwerte bestimmt.
  • Vorliegend liefert das markerlose, erste Trackingsystem die Position des Mittelpunkts 225 der Fingerkuppe 220 in einem ersten, markerlosen Koordinatensystem. Diese Position ist definiert durch die Koordinaten (x1, y1). Zu der in 2 gezeigten Lage der Kunsthand 210 hat auch das markerbasierte Trackingsystem eine Position bestimmt, nämlich die Position des Markers 230 und zwar bezogen auf das zweite, markerbasierte Koordinatensystem. In diesem zweiten, markerbasierten Koordinatensystem ist die Position des Markers definiert durch die Koordinatenwerte (x2, y2).
  • Bei der in 2 gezeigten Anordnung des Markers 230 an der Kunsthand 210 wurde bewusst darauf verzichtet, den Marker 230 an der Position des Mittelpunkts 225 der Fingerkuppe 220 zu platzieren. Denn würde sich der Marker 230 im Bereich der Fingerkuppe 220 befinden, wäre es nicht mehr oder nur erschwert möglich, mit Mitteln der Mustererkennung die Fingerkuppe 220 zu lokalisieren. Von daher entsprechen die Positionsdaten des Markers 230 im zweiten Koordinatensystem nicht den Positionsdaten des Mittelpunkts 225 der Fingerkuppe 220 im zweiten Koordinatensystem.
  • Vielmehr ist es erforderlich, die Positionsdaten des Markers 230 im zweiten markerbasierten Koordinatensystem entsprechend so zu korrigieren, dass man dritte Positionsdaten im zweiten Koordinatensystem erhält, die der Position des Mittelpunkts 225 der Fingerkuppe 220 im zweiten Koordinatensystem entsprechen. In 2 sind diese Positionsdaten die Koordinaten (x3, y3).
  • Eine Umrechnung der zweiten Positionsdaten, die die Position des Markers 230 im markerbasierten Koordinatensystem angeben, in dritte Positionsdaten, die die Position des Mittelpunkts 225 der Fingerkuppe 220 im markerbasierten Koordinatensystem angeben, ist möglich, denn der Marker 230, und die Fingerkuppe 220 und deren Mittelpunkt 225 stehen an der Kunsthand in einer festen räumlichen Beziehung zueinander. In 2 ist dazu der x-Positionswert x2 um dx korrigieren, d. h. vorliegend ist dx zu dem Wert x2 zu addieren, um zu den x-Koordinatenwert der Position des Mittelpunkts 225 der Fingerkuppe 220 im zweiten markerbasierten Koordinatensystem zu erhalten, nämlich x3.
  • Ferner ist der Positionswert y2 um dy korrigiert werden, um zu dem y-Koordinatenwert der Fingerkuppe bezogen auf die Achse 254 im zweiten Koordinatensystem zu gelangen, nämlich zu y3. Vorliegend man also dy zu dem Koordinatenwert y2 addieren, um den y-Koordinatenwert des Mittelpunkts 225 der Fingerkuppe im zweiten Koordinatensystem, also dem markerbasierten Koordinatensystem zu erhalten.
  • Es kann nun sein, dass, wenn die Kunsthand an verschiedene Positionen bewegt wird, um verschiedene erste und zugeordnete zweite Positionsdaten zu bestimmen, auch die räumliche Orientierung der Kunsthand 210 verändert wird. Wird allerdings ein geeigneter Marker 230, bzw. geeignete Marker 230 eingesetzt, so ist es möglich, durch die räumliche Orientierung des Markers 230 festzustellen, in welcher räumlichen Orientierung sich die Kunsthand 210 bezogen auf das zweite, markerbasierte Koordinatensystem, das durch die Achsen 252, 254, 256 definiert ist, sich befindet.
  • Durch einfache trigonometrische Berechnungen lassen sich die Korrekturwerte dx und dy entsprechend anpassen. Hierzu kann z. B. bezogen auf zwei Achsen, bestimmt werden, welchen Wert ein Winkel annimmt, der die Orientierung der Kunsthand bezogen auf diese zwei Achsen angibt. Zu diesem Winkel kann dann entsprechend der Sinus-, bzw. Kosinus-Wert bestimmt werden, und auf diese Weise können die Korrekturwerte dx und dy entsprechend angepasst werden.
  • Entsprechend kann man vorgehen, um den Korrekturwert für ein dz bezogen auf die dritte Achse 256 entsprechend festzustellen, wobei ein Neigewinkel der Kunsthand z. B. bezogen auf die Achse 254 und 256 festgestellt wird und entsprechend ein korrigiertes dz (in 2 nicht gezeigt) als Korrekturwert bestimmt wird. Hierzu gibt, wie bereits erläutert, eine räumliche Orientierung des Markers 230 oder die relative Position von einer Anzahl von Marker 230 zueinander entsprechend Aufschluss über die zu verwendenden Neigewinkel.
  • 3 erläutert die Kalibrierung anschaulich. In einem durch das Tracking des ersten markerlosen Trackingsystems zu überwachenden Bereich 330 wird eine Kunsthand 210 an verschiedenen Stellen positioniert. Dieses Positionieren an unterschiedlichen Stellen der Kunsthand 210 ist durch die Vielzahl der Kunsthände 210 in 3 angedeutet. Zu jeder Positionierung der Kunsthand 210 bestimmen Kameras 312, 314, 316 eines ersten markerlosen Trackingsystems jeweils erste Positionsdaten der Kunsthand. Weitere Kameras 322, 324, 326, z. B. die Kameras des zweiten markerbasierten Trackingsystems bestimmen entsprechend zweite Positionsdaten, die die jeweilige Position der Kunsthand bezogen auf das markerbasierte Koordinatensystem.
  • Schon aus der Tatsache, dass sich die Kameras 312, 314, 316 des ersten, markerlosen Trackingsystems und die weiteren Kameras 322, 324, 326 des markerbasierten, zweiten Trackingsystems an unterschiedlichen Position befinden, wird klar, dass sich das markerlose Koordinatensystem, in dem die ersten Positionsdaten des markerlosen Trackingsystems angegeben werden, von dem zweiten Koordinatensystem, nämlich dem markerbasierten Koordinatensystem, in dem die zweiten Positionsdaten des markerbasierten Trackingsystems angegeben werden, in der Regel voneinander unterscheiden werden. Mit anderen Worten wird die in Bezug auf 2 beschriebene Umrechnung der Positionsdaten aus dem ersten, markerlosen Koordinatensystem in das zweite, markerbasierte Koordinatensystem notwendig. Werden eine Vielzahl von Positionsdaten-Paaren von ersten und zweiten Positionsdaten bestimmt, die sich auf die jeweilige Positionierung der Kunsthand 210 im zu überwachenden Bereich 330 beziehen, indem z. B. die Kunsthand 210 an möglichst vielen Stellen in dem zu überwachenden Bereich 330 positioniert wird, die den zu überwachenden Bereich 330 möglichst gut abdecken, so wird es möglich, eine hinreichend exakte Transformationsregel zu erstellen. Eine solche Transformationsvorschrift zur Transformation der ersten Positionsdaten aus dem ersten Koordinatensystem in dritte Positionsdaten des zweiten Koordinatensystems kann z. B. durch eine Transformationsmatrix Tmarker ausgedrückt werden.
  • 4 erläutert die Funktionsweise der Transformationsmatrix Tmarker. In der Gleichung 400 ist eine 3 × 3 Matrix Tmarker dargestellt, zusammen mit ersten Positionsdaten pos1 eines ersten markerlosen Koordinatensystems und zweiten Positionsdaten pos2 eines zweiten markerbasierten Koordinatensystems. Zur Transformation der ersten Positionsdaten pos1 in die zweiten Positionsdaten pos2 des zweiten markerbasierten Koordinatensystems werden die ersten Positionsdaten pos1 mit der Transformationsmatrix Tmarker multipliziert, um so die Positionsdaten pos2 im zweiten Koordinatensystem zu erhalten.
  • Werden im Rahmen des Kalibrierens ausreichend viele Paare von ersten Positionsdaten und zweiten Positionsdaten ermittelt, so kann auf Basis dieser Positionsdaten-Paare die Matrix Tmarker entsprechend genau berechnet bzw. angenähert werden. Die erste Gleichung 410, die zweite Gleichung 420 und die dritte Gleichung 430 stellen dabei die ausmultiplizierte Matrixmultiplikation dar, die sich ergibt, wenn Tmarker mit den ersten Positionsdaten pos1 multipliziert wird. Durch hinreichend viele x1, x2 und x3 und entsprechend zugeordnete y1, y2 und y3 Werte lassen sich die Koeffizienten der Tmarker Transformationsmatrix berechnen bzw. möglichst gut abschätzen.
  • Anhand von 5 kann das Kalibrieren entsprechend den bei 2 gegebenen Erläuterungen erklärt werden, wenn das Kalibrieren statt mit einer Kunsthand bezogen auf einen Kunstkopf 510 durchgeführt wird. Ein solcher Kunstkopf 510 wird z. B. dann eingesetzt, wenn das markerlose Trackingsystem nicht eine Bewegung einer Fingerkuppe nachvollzieht, sondern stattdessen die Bewegung eines Kopfes nachverfolgt. Die Bewegung eines Kopfes kann dabei besonders gut nachvollzogen werden, wenn man die Position der beiden Augen des Kopfes lokalisiert. Dementsprechend weist der Kunstkopf ein erstes künstliches Auge 521 und ein zweites künstliches Auge 522 auf. Zudem ist, entsprechend der 2 auch der Kunstkopf mit einem Marker 530 versehen.
  • Der Kunstkopf 510 wird nun an einer Vielzahl von Positionen eines von einem ersten markerlosen Trackingsystem zu überwachenden Bereiches positioniert, wie dies bereits für die Kunsthand 210 anhand der 3 erläutert wurde. Bei jedem Positionieren des Kunstkopfes 510 im zu überwachenden Bereich nehmen ein oder mehrere Kameras des markerlosen Trackingsystems ein oder mehrere Bilder des Kunstkopfes 510 auf. Das markerlose Trackingsystem analysiert dann anhand der ein oder mehreren aufgenommenen Bilder beispielsweise die Position des ersten künstlichen Auges 521 und die Position des zweiten künstlichen Auges 522 anhand der aufgenommenen Bilder mittels Mustererkennungstechniken. Alternativ könnte das markerlose Trackingsystem auch nur die Position eines der künstlichen Augen 521, 522 oder die Position eines Mittelpunkts zwischen den künstlichen Augen 521, 522 bestimmen. Die Positionen der künstlichen Augen 521, 522 werden dann in einem Koordinatensystem des markerlosen Trackingsystems angegeben, das in 5 durch die Achsen 242, 244, 246 definiert ist.
  • Zur vereinfachten Erläuterung wird wiederum jeweils die dritte Achse 246, 256 des markerlosen Koordinatensystems bzw. des markerbasierten Koordinatensystems vernachlässigt, und die Betrachtungen beschränken sich auf die Koordinatenachsen 242, 244 des ersten markerlosen Koordinatensystems und die Koordinatenachsen 252, 254 des zweiten, markerbasierten Koordinatensystems. In der praktischen Anwendung werden die dritten Koordinatenachsen 246, 256 jedoch ebenfalls berücksichtigt, und auch für diese die Koordinatenwerte bestimmt.
  • In 5 ergeben sich für das erste Kunstauge 521 die ersten Positionsdaten (x11, y11) und für die Position des zweiten Kunstauges 522 die ersten Positionsdaten (x12, y12) im ersten markerlosen Koordinatensystem.
  • Die Kameras des markerbasierten Trackingsystems nehmen ebenfalls ein oder mehrere Bilder auf, die den Kunstkopf 510 zeigen. Entsprechend bestimmt das markerbasierte Trackingsystem die Position und ggf. die Ausrichtung eines oder mehrerer Marker 530 in einem zweiten Koordinatensystem, das durch die Achsen 252, 254, 256 definiert ist. Der einfachen Darstellung wegen, wird hier wiederum auf die Betrachtung in der dritten Achse 256 verzichtet. In 5 sind somit die zweiten Positionsdaten durch (x2, y2) bestimmt.
  • Wiederum werden nun zum Kalibrieren dritte Positionsdaten berechnet, die die Position des ersten Kunstauges 521 in dem markerbasierten zweiten Koordinatensystem angeben, bzw. die Position des zweiten Kunstauges 522 in dem markerbasierten zweiten Koordinatensystem. In denn Fall der Berechnung der Positionsdaten des ersten und des zweiten Kunstauges 521, 522 in dem zweiten, markerbasierten Koordinatensystem sind somit zwei Anpassungen vorzunehmen, nämlich, eine erste Anpassung, die die Position (x2, y2) in dem zweiten Koordinatensystem in eine dritte Position (x31, y31) des zweiten Koordinatensystems umrechnet. Ferner ist eine zweite Anpassung nötig, die die Position (x2, y2) des Markers 530 in dem markerbasierten Koordinatensystem in eine weitere dritte Position (x32, y32) umrechnet, die die Position des zweiten Kunstauges 522 in dem zweiten, markerbasierten Koordinatensystem angibt.
  • Aus der Vielzahl der so berechneten Positionen können entsprechend zwei Umrechnungsvorschriften berechnet werden, z. B. zwei Umrechnungsmatrizen Tmarker, die erste Positionsdaten eines ersten Auges in einem ersten, markerlosen Koordinatensystem in eine dritte Positionsdaten des ersten Auges in dem zweiten, markerbasierten Koordinatensystem umrechnet, und eine zweite Umrechnungsvorschrift, die eine weitere erste Positionsdaten eines weiteren Auges in einem ersten Koordinatensystem in eine weitere dritte Positionsdaten in dem zweiten markerlosen Koordinatensystem umrechnet, um so die Positionsdaten des weiteren Auges in dem zweiten, markerbasierten Koordinatensystem zu erhalten.
  • 6 erläutert eine weitere Ausführungsform der Erfindung. In dieser Ausführungsform wird ein Kunstkopf 610 mit ein oder mehreren Kameras (nicht gezeigt) in den Augen aufgebaut. Die Kameras deuten in die Blickrichtung des Kunstkopfes. Die Kameras werden nun einen Bereich 620 einer Bildfläche 630 erfassen. Dieser Bereich 620 stellt somit einen Teilbereich des Bildes 630 dar. Dieser Teilbereich 620, der einen bestimmten Teil des Bildes zeigt, kann nun dazu verwendet werden, die Position des Kunstkopfes 610 zu bestimmen.
  • Je nachdem, ob der Kunstkopf 610 sich weiter links (siehe Pfeil 641) oder weiter rechts (siehe Pfeil 642) befindet, wird auch ein entsprechend anderer Teilbereich 620 des Bildes 630 von den Kameras in den Augen des Kunstkopfes aufgenommen, der entsprechend einen Bereich des Bildes 630 weiter links, oder weiter rechts aufnimmt.
  • Je nachdem, ob der Kunstkopf weiter oben (siehe Pfeil 651) oder weiter unten (siehe Pfeil 652) positioniert wird, werden die Kameras in den Augen des Kunstkopfes auch einen Teilbereich 620 des Bildes 630 aufnehmen, der einen Teil des Bildes 630 zeigt, der entsprechend weiter oben, oder weiter unten im Bild 630 liegt.
  • Je nachdem, ob sich der Kunstkopf weiter vorne (siehe Pfeil 661) oder weiter hinten (siehe Pfeil 662) befindet, wird ein entsprechend größerer Teilbereich 620 des Bildes 630 von den Kameras in den Augen des Kunstkopfes aufgenommen oder ein entsprechend kleinerer Bereich 620.
  • Mit anderen Worten kann aus den Aufnahmen, die von den Kameras in den Augen des Kunstkopfes aufgenommen werden, auf die Position des Kunstkopfes rückgeschlossen werden. Die so bestimmte Position des Kunstkopfes kann darauf aufbauend in einem ersten, markerlosen Koordinatensystem angegeben werden.
  • Ein markerbasiertes Trackingsystem (nicht gezeigt) kann wiederum dafür eingesetzt werden, mit Kameras des markerbasierten Trackingsystems den Kunstkopf aufzunehmen, um so die Position des Kunstkopfes in einem markerbasierten Koordinatensystem anzugeben. Im Rahmen des Kalibriervorgangs wird der Kunstkopf wiederum an unterschiedlichen Position positioniert. Auf diese Weise können wiederum Positionsdaten-Paare bestimmt werden. Eine entsprechende Transformationsvorschrift aus dem markerlosen Kamerasystem in das markerbasierte Kamerasystem kann dann entsprechend bestimmt werden.
  • In einer weiteren Ausführungsform der Erfindung werden erste Positionsdaten nicht nur aus einem ersten Koordinatensystem eines markerlosen Trackingsystems in ein zweites Koordinatensystem eines markerbasierten Koordinatensystems umgerechnet. Vielmehr ermöglicht eine derartige Ausführungsform auch das Umrechnen in ein drittes gemeinsames Zielkoordinatensystem. Dies ist vor allem dann besonders hilfreich, wenn die Umrechnungsvorschrift von Positionsdaten aus dem markerbasierten Koordinatensystem in das Zielkoordinatensystem bereits vorliegt, und lediglich somit ein Kalibrieren des markerlosen Trackingsystems erforderlich ist, um ein Umrechnen der Positionsdaten aus dem ersten, markerlosen Koordinatensystem in das zweite, markerbasierte Koordinatensystem zu ermöglichen. Die Transformationsvorschrift von dem markerbasierten Koordinatensystem in das Zielkoordinatensystem kann z. B. eine Transformationsmatrix sein, z. B. eine Transformationsmatrix Tzielsystem. Aus den beiden Transformationsmatrizen, Tmarker und Tzielsystem kann dann eine weitere Transformationsmatrix T3 berechnet werden, wie sich aus dem Matrixprodukt der durch die Kalibrierung ermittelten Transformationsmatrix Tmarker und der Transformationsmatrix Tzielsystem zur Transformation aus dem markerbasierten Koordinatensystem in das Zielsystem ergibt: T3 = Tzielsystem·Tmarker.
  • Des Weiteren kann man, um eine Gesamt-Transformationsregel zu berechnen, auch noch die Transformationsregel berücksichtigen, die die Positionen von charakteristischen Bereichen in den Bildern der Kameras des markerlosen Trackingsystems, die sich auf ein entsprechendes Koordinatensystem der Bilder der Kameras des markerlosen Trackingsystems beziehen, in das markerlose Trackingsystem umrechnen. Eine solche Transformationsvorschrift kann z. B. durch eine Matrix Toptik ausgedrückt werden. Eine entsprechende Gesamt-Transformationsmatrix Ttotal ergibt sich dann zu: Ttotal = Tzielsystem·Tmarker·Toptik.
  • Die beschriebene Transformationsfunktion Ttotal = Tzielsystem·Tmarker·Toptik. kann z. B. als 3·3 Matrix realisiert werden. Mit einer 3·3 Matrix lassen sich Rotation, Skalierung und Scherung einer räumlichen Transformation beschreiben. Um eine Translation ebenfalls als Matrixoperation berechnen zu können, wird der Raum um eine weitere Dimension erweitert. Entsprechend würde die Matrix Ttotal zu einer 4·4 Matrix werden. Eine Translation im dreidimensionalen Raum lässt sich nun durch eine Matrizenmultiplikation mit einer Matrix beschreiben. Die Darstellung der Koordinaten als {x, y, z, 1} wird in der Bildverarbeitung und der Computergrafik fast überall verwendet.
  • Toptik beschreibt die Transformationsmatrix, die die Koordinaten des Kamerabildes in 3D-Koordinaten überführt. Typischerweise ist dies eine Matrixmultiplikation einer 4·4 Matrix mit einem Spalten-Vektor mit vier Elementen. Aber auch andere Transformationen sind denkbar.
  • Tmarker beschreibt die Transformation des Koordinatensystems des markerlosen Trackers in das Koordinatensystem des markerbasierten Trackers.
  • Tzielsystem beschreibt die Koordinatentransformation vom markerbasierten (markerbehafteten) Koordinatensystem in das Wunschkoordinatensystem.
  • Ttotal ist die Zusammenfassung aller Transformationen in eine einzige. In den meisten Fällen sollte eine 4·4 Matrix für diese Transformation ausreichen.
  • Gemäß einer oben beschriebenen Ausführungsform wird eine künstliche Hand als Kalibriertarget für absolute Handtrackingsysteme verwendet. Eine Fingerspitze wird als Messpunkt eines Markers definiert. Es wird die Position des Markers mit dem markerbasierten Tracking bestimmt. Gleichzeitig wird die Position der Fingerspitze mit dem markerlosen optischen Fingertracker bestimmt. Mit dem markerbasierten Trackingsystem können weitere Kalibrierpunkte vermessen werden, z. B. für Raumkalibrierung.
  • Gemäß einer weiteren oben beschriebenen Ausführungsform wird ein künstlicher Kopf mit Kameras für getrackte 3D-Displays bereitgestellt. Der Kunstkopf wird dabei mit Markern versehen. Die Bewegungen des Kunstkopfes im Trackingsystem der Marker und im markerlosen Trackingsystem werden aufgezeichnet. Mit einem Messwerkzeug des markerbasierten Trackingverfahrens werden auf einem Schirm die optimalen Betrachterzonen des 3D-Displays vermessen. Aus den aufgenommenen Punkten kann die Transformationsmatrix, z. B. Ttotal = Tzielsystem·Tmarker·Toptik als Gesamtkalibrierung berechnet werden. Diese Ausführungsform beschreibt die Kalibrierung des markerbasierten optischen Trackingsystems in das Koordinatensystem des Abbildungssystems des 3D-Displays.
  • In einer weiteren oben beschriebenen Ausführungsform wird ein künstlicher Kopf mit Kameras für getrackte 3D-Displays verwendet. Es wird ein Kunstkopf mit Kameras in den Augen aufgebaut. Das markerlose Trackingsystem bestimmt die Position des Kunstkopfes. Die Kameras in den Augen des Kunstkopfes bestimmen die optimale Konfiguration des 3D-Displays. Aus den Messpunkten kann die Transformationsmatrix, z. B. Ttotal = Tzielsystem·Tmarker·Toptik bestimmt werden. Diese Ausführungsform, die Kameras in den Augen des Kunstkopfes vorsieht, ist dadurch gekennzeichnet, dass die Kameras in den Augen in dieser Variante die Funktion des markerbasierten optischen Trackingsystems des ersten Ausführungsform Tracker (übernehmen. Anstelle mit einem markerbasierten optischen z. B. A.R.T., beispielsweise A.R.T. Motion Tracking Systeme) 3D-Positionen im Raum zu messen, wird mit den Kameras in den Augen des Kunstkopfes die augenblickliche Position im Abbildungssystem des 3D-Displays gemessen.
  • Anwendungsgebiete für ein so kalibriertes markerloses Trackingsystem bieten sich z. B. immer dann, wenn ein Benutzer eine Vorrichtung trägt, die ein oder mehrere Kleinkameras, wie z. B. Minikameras umfasst, und die in Augennähe eingebracht sind und ein Kamerabild in Blickrichtung des Benutzers aufnehmen.
  • Die hier vorgestellten Konzepte ermöglichen eine zuverlässige produzierbare Kalibrierung. Ferner wird eine genauere Kalibrierung durch eine große Anzahl möglicher Messpunkte erreicht. Des Weiteren wird eine Kalibrierung des Systems für Personen ohne Erfahrung mit dem System bzw. durch automatische Systeme möglich. Anwendungsgebiet der Erfindung sind z. B. die Kalibrierung von Interaktionssystemen. Ein weiteres Anwendungsgebiet ist die Kalibrierung getrackter 3D-Displays.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder einer elektronischen Schaltung durchgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist. Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (16)

  1. Vorrichtung zum Kalibrieren eines ersten Trackingsystems, wobei das erste Trackingsystem dafür ausgelegt ist, einen identifizierbaren Bereich (220; 521, 522) eines künstlichen Körpers (210; 510) zu lokalisieren, wobei die Vorrichtung eine Schnittstelle (110) und eine Kalibriereinheit (120) umfasst, wobei die Schnittstelle (110) dafür eingerichtet ist, zu jeder einer Vielzahl von Positionierungen eines künstlichen Körpers (210; 510) in einem von dem ersten Trackingsystem zu überwachenden Bereich (330) jeweils erste Positionsdaten von dem ersten Trackingsystem zu erhalten, wobei die ersten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers (210; 510) jeweils eine erste Position eines identifizierbaren Bereichs (220; 521, 522) des künstlichen Körpers (210; 510) angeben, und wobei die ersten Positionsdaten auf ein erstes Koordinatensystem bezogen sind, wobei die Schnittstelle (110) ferner dafür eingerichtet ist, zu jeder der Vielzahl von Positionierungen des künstlichen Körpers (210; 510) in denn von dem ersten Trackingsystem zu überwachenden Bereich (330) jeweils zweite Positionsdaten von einem anderen zweiten Trackingsystem zu erhalten, die zu der jeweiligen Positionierung des künstlichen Körpers (210; 510) jeweils eine zweite Position angeben, die durch einen oder mehrere an dem künstlichen Körper (210; 510) angebrachte Marker festgelegt ist, wobei die zweiten Positionsdaten auf ein anderes, zweites Koordinatensystem bezogen sind, wobei die Kalibriereinheit (120) dafür eingerichtet ist, basierend auf jeder der für die Vielzahl der Positionierungen des künstlichen Körpers (210; 510) bestimmten ersten Positionsdaten und basierend auf jeder der für die Vielzahl von Positionierungen des künstlichen Körpers (210; 510) bestimmten zweiten Positionsdaten eine Transformationsregel zu bestimmen, die zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.
  2. Vorrichtung nach Anspruch 1, wobei die Kalibriereinheit (120) dafür eingerichtet ist, basierend auf der für jede der Vielzahl von Positionierungen des künstlichen Körpers (210; 510) bestimmten ersten Positionsdaten und basierend auf der für jede der Vielzahl von Positionierungen des künstlichen Körpers (210; 510) bestimmten zweiten Positionsdaten, dritte Positionsdaten zu bestimmen, die jeweils die erste Position des identifizierbaren Bereichs (220; 521, 522) des künstlichen Körpers (210; 510) angeben, wobei die dritten Positionsdaten auf das zweite Koordinatensystem bezogen sind, und wobei die Kalibriereinheit (120) dafür eingerichtet ist, die Transformationsregel basierend auf den ersten Positionsdaten und den dritten Positionsdaten zu bestimmen.
  3. Vorrichtung nach Anspruch 2, wobei die Kalibriereinheit (120) dafür eingerichtet ist, die dritten Positionsdaten, die auf das zweite Koordinatensystem bezogen sind, basierend auf einem Abstand der jeweiligen ersten Position des identifizierbaren Bereichs (220; 521, 522) und der jeweiligen zweiten Position des einen oder der mehreren Marker zu bestimmen.
  4. Vorrichtung nach einem der vorherigen Ansprüche, wobei die Kalibriereinheit (120) dafür eingerichtet ist, zur Bestimmung der Transformationsregel eine erste Transformationsmatrix (Tmarker) zu bestimmen, die weitere Positionsdaten, die auf das erste Koordinatensystem bezogen sind, in das zweite Koordinatensystem transformiert.
  5. Vorrichtung nach Anspruch 4, wobei die Kalibriereinheit (120) dafür eingerichtet ist, als Transformationsregel eine zweite Matrix (Ttotal) zu bestimmen, die ein Matrixprodukt der ersten Transformationsmatrix (Tmarker) und wenigstens einer weiteren dritten Transformationsmatrix ist.
  6. Vorrichtung nach einem der vorherigen Ansprüche, wobei der künstliche Körper (210; 510) eine Kunsthand ist, wobei der identifizierbare Bereich (220; 521, 522) eine Fingerkuppe (220) der Kunsthand ist, und wobei die Kalibriereinheit (120) dafür eingerichtet ist, die Transformationsregel basierend auf einem Abstand zwischen der Position der Fingerkuppe und der zweiten Position, die durch einen oder mehrere an dem künstlichen Körper (210; 510) angebrachte Marker festgelegt ist, zu bestimmen.
  7. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei der künstliche Körper (210; 510) ein Kunstkopf ist, wobei der identifizierbare Bereich (220; 521, 522) ein künstliches Auge (521, 522) ist, und wobei die Kalibriereinheit (120) dafür eingerichtet ist, die Transformationsregel basierend auf einem Abstand zwischen dem künstlichen Auge und der zweiten Position, die durch einen oder mehrere an dem künstlichen Körper (210; 510) angebrachte Marker festgelegt ist, zu bestimmen.
  8. System zum Kalibrieren, umfassend eine Vorrichtung nach einem der Ansprüche 1 bis 7, wobei das System ferner den künstlichen Körper (210; 510) umfasst.
  9. Trackingsystem, umfassend: eine Vorrichtung zum Bestimmen von Trackingsystem-Positionsdaten, und eine Vorrichtung zum Kalibrieren nach einem der Ansprüche 1 bis 7, wobei das Trackingsystem dafür eingerichtet ist, die Trackingsystem-Positionsdaten der Schnittstelle (110) der Vorrichtung zum Kalibrieren als die ersten Positionsdaten zu übergeben.
  10. Trackingsystem nach Anspruch 9, wobei das Trackingsystem ferner eine Auswerteeinheit umfasst, die zur Auswertung von Kamerabildern geeignet ist, und die dafür eingerichtet ist, die Position eines identifizierbaren Bereichs (220; 521, 522) als die Trackingsystem-Positionsdaten zu bestimmen.
  11. Trackingsystem nach Anspruch 10, wobei die Auswerteeinheit dafür eingerichtet ist, die Position des identifizierbaren Bereichs (220; 521, 522) durch Anwendung eines oder mehrerer Mustererkennungs-Algorithmen zu bestimmen.
  12. Trackingsystem nach einem der Ansprüche 9 bis 11, wobei das Trackingsystem ferner ein oder mehrere Kameras (312, 314, 316) aufweist, die zur Aufnahme von Kamerabildern geeignet sind, um die Position des identifizierbaren Bereichs (220; 521, 522) zu bestimmen.
  13. Trackingsystem nach einem der Ansprüche 9 bis 12, wobei der künstliche Körper (210; 510) ein Kunstkopf (510) ist, wobei der identifizierbare Bereich (220; 521, 522) ein künstliches Auge (521, 522) ist, wobei an dem künstlichen Körper ein oder mehrere weitere Kameras angeordnet sind, und wobei das Trackingsystem dafür ausgelegt ist, aus dem von den ein oder mehreren weiteren Kameras aufgenommenen ein oder mehreren Teilbereichen (620) einer Bildfläche (630) die Trackingsystem-Positionsdaten zu bestimmen und der Vorrichtung zum Kalibrieren als die ersten Positionsdaten zu übergeben.
  14. Trackingsystem nach einem der Ansprüche 9 bis 13, wobei das Trackingsystem ferner den künstlichen Körper (210; 510) umfasst.
  15. Verfahren zum Kalibrieren eines ersten Trackingsystems, wobei das erste Trackingsystem dafür ausgelegt ist, einen identifizierbaren Bereich (220; 521, 522) eines künstlichen Körpers (210; 510) zu lokalisieren, umfassend: Empfangen erster Positionsdaten von dem ersten Trackingsystem zu jeder einer Vielzahl von Positionierungen eines künstlichen Körpers (210; 510) in einem von einem ersten Trackingsystem zu überwachenden Bereich (330), wobei die ersten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers (210; 510) jeweils eine erste Position eines identifizierbaren Bereichs (220; 521, 522) des künstlichen Körpers (210; 510) angeben, und wobei jede der ersten Positionsdaten auf ein erstes Koordinatensystem bezogen sind, Empfangen zweiter Positionsdaten von einem zweiten Trackingsystem zu jeder der Vielzahl von Positionierungen des künstlichen Körpers (210; 510) in dem von denn ersten Trackingsystem zu überwachenden Bereich (330), wobei die zweiten Positionsdaten zu der jeweiligen Positionierung des künstlichen Körpers (210; 510) jeweils eine zweite Position angeben, die durch einen oder mehrere an dem künstlichen Körper (210; 510) angebrachte Marker festgelegt ist, wobei die zweiten Positionsdaten auf ein anderes, zweites Koordinatensystem bezogen sind, und wobei die zweiten Positionsdaten von einem anderen, zweiten Trackingsystem erhalten werden, und Bestimmen einer Transformationsregel basierend auf den für die Vielzahl der Positionierungen des künstlichen Körpers (210; 510) bestimmen ersten Positionsdaten und basierend auf den für die Vielzahl der Positionierungen des künstlichen Körpers (210; 510) bestimmen zweiten Positionsdaten, so dass die Transformationsregel zur Transformation von weiteren, von dem ersten Trackingsystem erhaltenen, Positionsdaten, die sich auf das erste Koordinatensystem oder ein weiteres drittes Koordinatensystem beziehen, in das zweite Koordinatensystem oder ein weiteres viertes Koordinatensystem geeignet ist.
  16. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens gemäß Anspruch 15, wenn das Computerprogramm auf einem Computer oder Mikrocontroller abläuft.
DE102012209664.7A 2012-06-08 2012-06-08 Vorrichtung und verfahren zum kalibrieren von trackingsystemen Active DE102012209664B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012209664.7A DE102012209664B4 (de) 2012-06-08 2012-06-08 Vorrichtung und verfahren zum kalibrieren von trackingsystemen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012209664.7A DE102012209664B4 (de) 2012-06-08 2012-06-08 Vorrichtung und verfahren zum kalibrieren von trackingsystemen

Publications (2)

Publication Number Publication Date
DE102012209664A1 true DE102012209664A1 (de) 2013-12-12
DE102012209664B4 DE102012209664B4 (de) 2017-03-30

Family

ID=49625893

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012209664.7A Active DE102012209664B4 (de) 2012-06-08 2012-06-08 Vorrichtung und verfahren zum kalibrieren von trackingsystemen

Country Status (1)

Country Link
DE (1) DE102012209664B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019025311A1 (de) 2017-08-04 2019-02-07 Audi Ag Nutzung eines animatronischen kopfes zur testautomatisierung von kamerabasierten head-trackern

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US20040136012A1 (en) * 2002-11-15 2004-07-15 Leica Geosystems Ag Method and device for calibrating a measuring system
DE102004061841A1 (de) * 2003-12-22 2005-07-14 Augmented Solutions Gmbh Markerloses Tracking System für Augmented Reality Anwendungen
DE102005005242A1 (de) * 2005-02-01 2006-08-10 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen eines Kameraoffsets
US20060188131A1 (en) * 2005-02-24 2006-08-24 Xiang Zhang System and method for camera tracking and pose estimation
US20080187175A1 (en) * 2007-02-07 2008-08-07 Samsung Electronics Co., Ltd. Method and apparatus for tracking object, and method and apparatus for calculating object pose information

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
DE4415944C2 (de) 1994-05-05 1998-07-09 Karl Stefan Riener Elektronische Zielscheibe und Verfahren zu dessen Auswertung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US20040136012A1 (en) * 2002-11-15 2004-07-15 Leica Geosystems Ag Method and device for calibrating a measuring system
DE102004061841A1 (de) * 2003-12-22 2005-07-14 Augmented Solutions Gmbh Markerloses Tracking System für Augmented Reality Anwendungen
DE102005005242A1 (de) * 2005-02-01 2006-08-10 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen eines Kameraoffsets
US20060188131A1 (en) * 2005-02-24 2006-08-24 Xiang Zhang System and method for camera tracking and pose estimation
US20080187175A1 (en) * 2007-02-07 2008-08-07 Samsung Electronics Co., Ltd. Method and apparatus for tracking object, and method and apparatus for calculating object pose information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019025311A1 (de) 2017-08-04 2019-02-07 Audi Ag Nutzung eines animatronischen kopfes zur testautomatisierung von kamerabasierten head-trackern
DE102017213551A1 (de) 2017-08-04 2019-02-07 Audi Ag Nutzung eines animatronischen Kopfes zur Testautomatisierung von kamerabasierten Head-Trackern

Also Published As

Publication number Publication date
DE102012209664B4 (de) 2017-03-30

Similar Documents

Publication Publication Date Title
EP2176833B1 (de) Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt
WO2015117907A2 (de) Selektiv-adaptiver datenprozessor
DE10355283A1 (de) Hand/Auge-Kalibrierverfahren und zugehöriges Punktextraktionsverfahren
DE102007059478B4 (de) Verfahren und System zur Ausrichtung eines virtuellen Modells an einem realen Objekt
DE19937265A1 (de) Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE102018109774A1 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
DE102015212352A1 (de) Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts
EP2325725A1 (de) Verfahren zum reduzieren eines effekts auf virtuelle objekte
WO2007014966A1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
EP2860614B1 (de) Verfahren und Vorrichtung zur Handhabung grafisch dargestellter Daten
DE102006006001B3 (de) Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
DE102016002186A1 (de) Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
WO2020178198A1 (de) Schätzung der bewegung einer bildposition
DE102007030378A1 (de) System zur Bestimmung der Lage eines Kamerasystems
DE112016006769T5 (de) Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs
DE102012209664B4 (de) Vorrichtung und verfahren zum kalibrieren von trackingsystemen
DE102017102228A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt
EP4016061B1 (de) Verfahren zur bedienung eines röntgen-systems
WO2015043793A1 (de) System und verfahren zur korrelation von objektinformationen mit röntgenbildern
EP3174010A2 (de) Verfahren zur erstellung einer 3d-repräsentation und korrespondierende bildaufnahmevorrichtung
DE102009019019A1 (de) Video-basiertes Mono-Kamera-Navigationssystem
EP4002067B1 (de) Verfahren zur vorbereitung eines 3d-scans und 3d-scanner zur durchführung des verfahrens
DE102011075877A1 (de) Auswertungsverfahren für eine Folge von zeitlich aufeinander folgenden Tiefenbildern
WO2007048674A1 (de) System und verfahren für ein kamerabasiertes tracking

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final