DE102005045973A1 - Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking - Google Patents
Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking Download PDFInfo
- Publication number
- DE102005045973A1 DE102005045973A1 DE102005045973A DE102005045973A DE102005045973A1 DE 102005045973 A1 DE102005045973 A1 DE 102005045973A1 DE 102005045973 A DE102005045973 A DE 102005045973A DE 102005045973 A DE102005045973 A DE 102005045973A DE 102005045973 A1 DE102005045973 A1 DE 102005045973A1
- Authority
- DE
- Germany
- Prior art keywords
- information
- movement information
- contraption
- images
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft eine Vorrichtung (1), ein System und ein Verfahren zur Ermittlung einer Pose eines. Um ein optisches Tracking mittels der Vorrichtung (1) und einer Datenverarbeitungseinrichtung (8) bei möglichst geringem Datentransfervolumen zwischen Vorrichtung (1) und Datenverarbeitungseinrichtung (8) zu ermöglichen, wird vorgeschlagen, dass die Vorrichtung (1) mit DOLLAR A - einer Bilderfassungseinheit (2) zur Erfassung einer realen Umgebung (3) und Generierung von Abbildern von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereich, DOLLAR A - Verarbeitungsmitteln (4) zur Bestimmung von Bewegungsinformationen (5) durch Auswertung der Abbilder, wobei die Bewegungsinformationen (5) eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes (6) innerhalb der Abbilder kennzeichnen, DOLLAR A È Sendemitteln zum Senden der Bewegungsinformationen (5) an eine Datenverarbeitungseinrichtung (8), DOLLAR A - Empfangsmitteln zum Empfang von auf Basis der Bewegungsinformationen (5) generierten Poseninformationen (9), wobei die Poseninformationen (9) eine Position und eine Orientierung des Objektes (6) kennzeichnen, DOLLAR A ausgeführt ist.
Description
- Die Erfindung betrifft eine Vorrichtung, ein System und ein Verfahren zur Ermittlung einer Pose eines Objektes.
- Eine derartige Vorrichtung bzw. ein derartiges Verfahren kommen beispielsweise bei Augmented Reality (AR) Anwendungen zum Einsatz. Augmented Reality, erweiterte Realität, ist eine Form der Mensch-Technik-Interaktion, die dem Menschen z. B. über eine Datenbrille Informationen in sein Sichtfeld einblendet und damit die von ihm wahrgenommene Realität erweitert. Dieses geschieht kontextabhängig, d. h. passend zum und abgeleitet vom betrachteten Objekt, z. B. einem Bauteil, einem Werkzeug, einer Maschine oder zu seinem Standort. Beispiel hierfür kann ein Sicherheitshinweis während eines Montage-/Demontageprozesses sein.
- AR-Geräte können in den Anwendungsdomänen produzierende Industrie, Medizin oder im Konsumerbereich eingesetzt werden. In der produzierenden Industrie können Anwendungen von einfachen Bedien- und Beobachtungsprozessen bis hin zu komplexen Servicetätigkeiten unterstützt werden. Bei Operationen, Untersuchungen und Behandlungen im medizinischen Umfeld dienen solche Verfahren und Geräte einem Anwender zur Verbesserung der Arbeitsqualität. Im Konsumerbereich können Anwendungen wie z.B. Navigation von Personen, Informationsbreitstellung etc. realisiert werden.
- Für die Informationsbereitstellung werden am Körper getragene Geräte benötigt. Über eine Empfangs- und Sendeeinrichtung wird die Kopplung zu Unternehmensdatenquellen realisiert. Für die Visualisierung der Informationen wird häufig ein am Kopf getragenes halbdurchlässiges Display verwendet, wodurch dem Anwender eine gleichzeitige Betrachtung der Informationen und seiner realen Umgebung ermöglicht wird.
- Um diese virtuelle Erweiterung des Blickfeldes des Anwenders positionsgenau zu erreichen, werden Trackingverfahren eingesetzt. Diese können sowohl aus Hard- als auch Software bestehen. Dabei kommen optische, inertiale, akustische, magnetische oder weitere Verfahren zum Einsatz. Häufig werden die für die positionsgenaue virtuelle Erweiterung des Blickfeldes erforderlichen Berechnungen auf einem stationären Remote-Server durchgeführt.
- Beispielsweise aus
DE 10 2004 061 841 A1 sind optische Positionserfassungssysteme bekannt, die die Position und/oder Orientierung von Objekten in einem Vermessungsraum bestimmen. Ein Positionserfassungssystem kann insbesondere als optisches Trackingsystem ausgeführt sein, welches durch Verfahren der computergestützten Bildverarbeitung die Position von im Vermessungsraum befindlichen Objekten und/oder die Position der Kamera über die Erkennung der Objekte bestimmen. - Aus
DE 103 61 512 A1 ist eine Vorrichtung und ein Verfahren zur Darstellung von Umgebungsinformationen für einen Anwender bekannt, wobei die Informationen positionsgenau das reale Blickfeld des Anwenders überlagern. Mittels verschiedener Erfassungseinheiten werden Umgebungsinformationen erfasst. Die erfassten Informationen werden direkt auf der mobilen Vorrichtung vorverarbeitet. Im Rahmen eines Regelkreises werden die Informationen verschmolzen, mit Kontext-Informationen angereichert und die genaue Position des Anwenders kann bestimmt werden. - Der Erfindung liegt die Aufgabe zu Grunde, ein optisches Tracking mittels einer Vorrichtung und einer Datenverarbeitungseinrichtung bei möglichst geringem Datentransfervolumen zwischen Vorrichtung und Datenverarbeitungseinrichtung zu ermöglichen.
- Diese Aufgabe wird durch eine Vorrichtung gelöst mit
- – einer Bilderfassungseinheit zur Erfassung einer realen Umgebung und Generierung von Abbildern von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereich,
- – Verarbeitungsmitteln zur Bestimmung von Bewegungsinformationen durch Auswertung der Abbilder, wobei die Bewegungsinformationen eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes innerhalb der Abbilder kennzeichnen,
- – Sendemitteln zum Senden der Bewegungsinformationen an eine Datenverarbeitungseinrichtung,
- – Empfangsmitteln zum Empfang von auf Basis der Bewegungsinformationen generierten Poseninformationen, wobei die Poseninformationen eine Position und eine Orientierung des Objektes kennzeichnen.
- Diese Aufgabe wird ferner durch ein Verfahren mit folgenden Verfahrensschritten gelöst:
- – Erfassen einer realen Umgebung und Generieren von Abbildern von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereich mit einer an einer Vorrichtung angeordneten Bilderfassungseinheit,
- – Bestimmen von Bewegungsinformationen durch Auswerten der Abbilder mit an der Vorrichtung angeordneten Verarbeitungsmitteln, wobei die Bewegungsinformationen eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes innerhalb der Abbilder kennzeichnen,
- – Senden der Bewegungsinformationen von der Vorrichtung an eine Datenverarbeitungseinrichtung und
- – Empfangen von auf Basis der Bewegungsinformationen generierten Poseninformationen, wobei die Poseninformationen eine Position und eine Orientierung des Objektes kennzeichnen.
- Die Erfindung ermöglicht eine relative Positions- und Orientierungsbestimmung von Objekten der realen Umgebung in Bezug auf die Bilderfassungseinheit oder in Bezug auf eine beliebige andere Komponente der Vorrichtung bzw. umgekehrt.
- Der Erfindung liegt die Erkenntnis zu Grunde, dass für eine derartige Positions- und Orientierungsbestimmung eine erhebliche Reduktion des zu transferierenden Datenvolumens und damit der hierfür erforderlichen Bandbreite erreicht wird, wenn die von der Bilderfassungseinheit generierten Abbilder zunächst innerhalb der Vorrichtung vorverarbeitet werden. Dies ist insbesondere dann von Vorteil, wenn sich die Vorrichtung bzw. die an dieser angeordnete Bilderfassungseinheit in Relation zur realen Umgebung bewegt. Insbesondere dann, wenn die Abbilder in Form eines Videodatenstromes erzeugt werden, ist eine Reduktion des zu transferierenden Datenvolumens wünschenswert.
- Erfindungsgemäß werden zunächst Bewegungsinformationen auf Basis der Abbilder generiert. Diese Bewegungsinformationen beschreiben eine Positionsänderung, die das Objekt innerhalb der Abbilder in dem Zeitintervall durchlaufen hat. Dabei kann eine Positionsänderung zwei Ursachen haben. Sie kann durch eine absolute Positions- und/oder Lageänderung der Bildererfassungseinheit oder durch eine absolute Positions- und/oder Lageänderung des Objektes hervorgerufen werden. Beide Mechanismen erzeugen eine relative Positions- bzw. Lageänderung des Objektes zur Bildererfassungseinheit, die durch Vergleich der innerhalb des Zeitintervalls generierten Abbilder ermittelt werden kann.
- Anstelle der kompletten Abbilder bzw. der zugehörigen Bilddaten werden nur die durch die Vorverarbeitung gewonnen Bewegungsinformationen an die Datenverarbeitungseinrichtung gesendet. Da die Bewegungsinformationen bedeutend weniger Daten beinhalten als die kompletten Bilddaten – selbst für den Fall, dass die Bilddaten komprimiert werden – wird auf diese Art und Weise eine signifikante Reduktion der Übertragungsra te zwischen Vorrichtung und Datenverarbeitungseinrichtung erzielt.
- Auf Basis der Bewegungsinformationen werden anschließend z. B. auf der Datenverarbeitungseinrichtung die Poseninformationen generiert, die sowohl die Orientierung als auch die Position des Objektes in Bezug auf die Bildererfassungseinheit charakterisieren. Die Poseninformationen werden schließlich an die Vorrichtung gesendet.
- In vorteilhafter Ausgestaltung der Erfindung ist die Vorrichtung mobil ausgeführt. Aufgrund der Mobilität der Vorrichtung und der an der Vorrichtung angeordneten Bilderfassungseinheit ist eine kontinuierliche Aktualisierung der Poseninformationen auf Basis der datenreduzierten Bewegungsinformationen besonders vorteilhaft.
- Eine vorteilhafte Ausführung der Erfindung kennzeichnet sich dadurch, dass die Sendemittel zur digitalen Datenübertragung der Bewegungsinformationen vorgesehen sind. Insbesondere dann, wenn die Bewegungsinformationen in Gestalt abstrakter Merkmale wie Vektoren oder Zahlen bestimmt werden, ist eine digitale Übertragung dieser Merkmale besonders zweckmäßig.
- Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung sind die Sendemittel zum Senden insbesondere komprimierter Bilddaten an die Datenverarbeitungseinrichtung während einer Initialisierungsphase vorgesehen. Anhand der Bilddaten kann die Datenverarbeitungseinheit auf Basis gespeicherten Umgebungswissens und mit Hilfe verschiedener Bilderkennungsalgorithmen ein von der Bilderfassungseinheit erfasstes Objekt erkennen und dessen Raumkoordinaten bestimmen. Eine Konfiguration und Initialisierung der Verarbeitungseinrichtung der Vorrichtung kann beispielsweise dadurch erreicht werden, dass die Raumkoordinaten an die Vorrichtung gesendet werden. Im Anschluss an die Initialisierungsphase werden bei der genannten vorteilhaften Ausgestaltung der Erfindung nun anstelle der in der Regel vergleichsweise umfangreichen Bilddaten nur noch die Bewegungsinformationen an die Datenverarbeitungseinheit gesendet. Hierdurch kann im Anschluss an die Initialisierungsphase der Datenstrom zwischen Vorrichtung und Datenverarbeitungseinrichtung sehr gering gehalten werden, wodurch auch ein gleichzeitiges Tracking mehrerer Vorrichtungen mit Hilfe nur einer Datenverarbeitungseinrichtung ermöglicht wird.
- Eine einfache Weiterverarbeitung der Bewegungsinformationen zur Erlangung der Poseninformationen kann bei einer vorteilhaften Ausführungsform der Erfindung dadurch erreicht werden, dass die Bewegungsinformationen Positionsänderungen innerhalb der Abbilder mindestens dreier Punkte des Objektes bezüglich einer ersten und einer zweiten Raumdimensionen beschreiben und eine Ermittlung einer Positionsänderung der drei Punkte bezüglich der dritten Raumdimension durch die Datenverarbeitungseinrichtung vorgesehen ist. Anhand der Abbilder lassen sich ohne Verwendung zusätzlicher Informationen zunächst nur Positionsänderungen bezüglich zweier Raumdimensionen feststellen. Sofern eine derartige Positionsänderung für mindestens drei Punkte feststellbar ist, deren Position sich bezüglich der verbleibenden dritten Raumdimension unterscheidet, so kann auch eine Positionsänderung der Punkte bzw. der zugehörigen Objekte bezüglich der dritten Raumdimension von der Datenverarbeitungseinrichtung bestimmt werden. Vorraussetzung hierfür ist, dass auf der Datenverarbeitungseinrichtung zum Beispiel als Resultat der Initialisierungsphase Zusatzinformationen hinterlegt sind, die beispielsweise den ursprünglichen Abstand der Punkte bezüglich der dritten Raumdimension beschreiben.
- Die hier beschriebene dreidimensionale Positionsbestimmung lässt sich schon dann realisieren, wenn die Bewegungsinformationen auf mindestens drei Punkte im realen Umgebungsbereich der Bilderfassungseinheit gerichtet sind. In der Regel wird man jedoch mehr Punkte bei der Generierung der Poseninformationen verwenden.
- Die Poseninformationen können bei der Vorrichtung sehr vorteilhaft genutzt werden, wenn bei einer Ausgestaltung der Erfindung die Vorrichtung Darstellungsmittel zur Darstellung erfasster und/oder empfangener Informationen für einen Anwender umfasst.
- Bei einer weiteren vorteilhaften Ausführungsform der Erfindung umfassen die Informationen Augmented Reality Informationen. Bei einer Erweiterung des realen Blickfeldes eines Anwenders mit derartigen Informationen ist eine positionsgenaue Einblendung der Informationen in Bezug auf die reale Umgebung des Anwenders von Bedeutung, um den Kontext zur realen Umgebung zu visualisieren. Beispielsweise kann eine solche Ausgestaltung der Erfindung genutzt werden, um dem Anwender bei der Bedienung einer in seiner realen Umgebung bzw. in seinem Sichtfeld befindlichen Maschine einen Taskflow vorzugeben, der ihm die Bedienung der Maschine erleichtern soll.
- In weiterer Ausgestaltung der Erfindung sind die Darstellungsmittel als Datenbrille ausgeführt. Die Verwendung einer Datenbrille ermöglicht eine Einblendung der Informationen direkt in das Sichtfeld des Anwenders. Bei einer Einblendung von Augmented Reality Informationen ist es zweckmäßig, die Datenbrille durchsichtig auszuführen, so dass der Anwender die reale Umgebung noch direkt durch die Datenbrille hindurch wahrnehmen kann. Bei einer solchen Ausgestaltungsform spricht man vom Optical-See-Through Verfahren. Alternativ kann die reale Umgebung auch in Form von der Bilderfassungseinheit erfasster Videodaten in der Datenbrille visualisiert werden. In diesem Fall spricht man vom Video-See-Through Verfahren.
- Die Genauigkeit und die Dynamik einer kamerabasierten Bestimmung der Poseninformationen kann bei weiterer Ausgestaltung der Erfindung dadurch erhöht werden, dass die Vorrichtung ei nen Inertialsensor zur Erfassung von Bewegungen der Bilderfassungseinheit aufweist. Inertialsensoren gewährleisten eine sehr gute Echtzeitfähigkeit. Zweckmäßigerweise werden daher gemäß einer weiteren Ausgestaltung die Verarbeitungsmittel zur Synchronisation und Fusion der mittels des Inertialsensors erfassten Bewegungen und der Poseninformationen vorgesehen.
- Insbesondere die Verwendung des zusätzlichen Inertialsensors ermöglicht es aufgrund der hohen Dynamik eines solchen Messsystems, dass die Verarbeitungsmittel in einer weiteren Ausführungsform der Erfindung zur Kompensation einer Verarbeitungslatenz vorgesehen sind.
- Die Bewegungsfreiheit und Ergonomie eines Anwenders sind in weiterer vorteilhafter Ausgestaltung der Erfindung besonders hoch, wenn die Sendemittel und/oder die Empfangsmittel zur drahtlosen Kommunikation vorgesehen sind.
- Ein vollständiger Trackingvorgang zum Beispiel für eine Augmented Reality Anwendung lässt sich vorteilhaft durch ein System mit einer mobilen Vorrichtung und einer Datenverarbeitungseinrichtung nach einer der zuvor genannten Ausgestaltungsformen der Erfindung realisieren. Bei der Datenverarbeitungseinrichtung handelt es sich vorteilhafterweise um einen stationären Remote-Server, auf dem die Bestimmung der Poseninformationen auf Basis der Bewegungsinformationen stattfindet. Durch die Auslagerung dieses Berechnungsschrittes kann die Vorrichtung leichter ausgeführt werden, so dass diese, sofern sie mobil ausgeführt ist, von einem Anwender besser getragen werden kann und als ergonomischer empfunden wird.
- Im Folgenden wird die Erfindung anhand des in der Figur dargestellten Ausführungsbeispiels näher beschrieben und erläutert.
- Die Figur zeigt ein System mit einer mobilen Vorrichtung
1 und einer Datenverarbeitungseinrichtung10 zur Berechnung von Poseninformationen9 . - Das System ist als Augmented Reality System ausgeführt, bei dem einem Anwender
11 mit Hilfe von als Datenbrille ausgeführten Darstellungsmitteln10 Informationen positionsgenau in sein Blickfeld eingeblendet werden. Die Datenbrille11 ist hierbei durchsichtig ausgeführt, so dass der Anwender11 eine reale Umgebung3 direkt wahrnehmen kann. Es handelt sich also um eine Informationsdarstellung gemäß dem so genannten Optical-See-Through Verfahren. Zur weiteren Kommunikation trägt der Anwender11 einen Kopfhörer17 und ein Mikrofon18 , wobei er mit dem Mikrofon auch Sprachbefehle an das System absetzten kann. - Die im Blickfeld des Anwenders
11 befindliche reale Umgebung3 umfasst u. A. ein Objekt6 , welches als Förderband in einer automatisierten Prozessumgebung dient. Hinter dem Förderband6 ist ein Roboter16 angeordnet, der Werkstücke auf dem Förderband6 positioniert. - Bei dem Anwender
11 handelt es sich in dem hier skizzierten Anwendungsbeispiel um einen Wartungstechniker, der eine Wartung des Roboters16 durchführen möchte. Bei der Wartung unterstützt ihn ein Remote-Experte13 , der sich außerhalb der realen Umgebung3 des Wartungstechnikers11 befindet. Beispielsweise bedient sich der Remote-Experte13 des Internets, um mit dem Wartungstechniker11 zu kommunizieren. Der Remote-Experte13 generiert an seinem vom Wartungstechniker11 und somit von dem zu wartenden Roboter16 beliebig weit entfernten Ort einen Taskflow, der den Wartungstechniker11 bei seiner Aufgabe unterstützen soll. Dieser Taskflow wird dem Wartungstechniker11 innerhalb seiner Datenbrille10 positionsgenau visualisiert, d. h., die Informationen werden kontextabhängig zu den vom Wartungstechniker11 betrachteten Elemen ten der realen Umgebung3 positionsgenau in der Datenbrille10 eingeblendet. - Für diese positionsgenaue Informationsdarstellung ist es notwendig, dass das Blickfeld des Wartungstechnikers
11 bzw. dessen Position und Orientierung in Bezug auf die reale Umgebung3 bekannt sind. Da sich der Wartungstechniker11 frei in der realen Umgebung3 bewegen kann, muss eine solche Posenbestimmung kontinuierlich durchgeführt werden. - Der Wartungstechniker
11 trägt an seinem Körper eine mobile Vorrichtung1 , die eine als Kamera ausgeführte Bilderfassungseinheit2 , einen Inertialsensor12 , als Prozessor ausgeführte Verarbeitungsmittel4 sowie erste Sendeempfangsmittel14 umfasst, wobei erste Sendeempfangsmittel14 und Prozessor4 in einem beispielsweise an einem Gürtel fixierbaren tragbaren Gerät7 integriert sind. Die Kamera2 sowie der Inertialsensor12 sind an der Datenbrille10 des Wartungstechnikers11 angeordnet. - Um die Position und den Blickwinkel des Wartungstechnikers
11 zu bestimmen, führt das System nun folgende Schritte aus. - Zunächst wird eine Initialisierungsphase durchlaufen, in der eine Konfiguration und Initialisierung des Gesamtsystems durchgeführt wird. Während dieser Initialisierungsphase wird ein Videodatenstrom auf Basis eines mit der Kamera
2 erfassten Umgebungsbereiches der realen Umgebung3 des Wartungstechnikers11 generiert. Die Videodaten werden komprimiert und mittels der ersten Sendeempfangsmittel14 an zweite Sendeempfangsmittel15 gesendet. Die zweiten Sendeempfangsmittel15 sind der Datenverarbeitungseinheit8 zugeordnet. Die Kommunikation zwischen ersten und zweiten Sendeempfangsmitteln14 ,15 verläuft drahtlos über Funksignale. - Auf der Datenverarbeitungseinrichtung
8 ist eine Software installiert, mit der aus den empfangenen Videodaten, die zu nächst dekomprimiert werden, Poseninformationen9 ermittelt werden können, die Rückschlüsse auf die Position und den Blickwinkel des Anwenders11 in Bezug auf die reale Umgebung3 zulassen. Hierzu bedient sich die Datenverarbeitungseinrichtung8 beispielsweise so genannter Kantentracker und/oder SIFT-Tracker. Um anhand derartiger Bilderkennungsalgorithmen Blickwinkel und Position des Anwenders bestimmen zu können, ist weiterhin auf der Datenverarbeitungseinrichtung8 ein Modell der realen Umgebung3 des Wartungstechnikers11 hinterlegt. Auf diese Art und Weise werden initial die Poseninformationen9 erzeugt und anschließend an die mobile Vorrichtung1 gesendet. Anhand der Poseninformationen9 können nun Informationen wie der Taskflow positionsgenau in das Sichtfeld des Wartungstechnikers11 eingeblendet werden. - Der beschriebene Initialisierungsvorgang erfordert eine vergleichsweise hohe Datenübertragungsrate zwischen den ersten und zweiten Sendeempfangsmitteln
14 ,15 , da von der mobilen Vorrichtung1 in der Regel relativ datenintensive komprimierte Bilddaten an die Datenverarbeitungseinrichtung8 gesendet werden. Daher wird nach dieser initialen Bestimmung der Poseninformationen9 eine Trackingphase eingeleitet, bei der die von der mobilen Vorrichtung1 zur Datenverarbeitungseinrichtung8 zu übertragene Datenmenge erheblich geringer ausfällt. - In der Trackingphase werden Bewegungen von Elementen innerhalb des von der Kamera
2 erfassten Umgebungsbereiches bzw. innerhalb der Abbilder, die die Kamera erzeugt, analysiert, um entsprechende Bewegungsinformationen5 zu generieren. Hierzu wird beispielsweise das Förderband6 oder ein markantes Teil davon getrackt. Die Bewegungen, die dieses Objekt6 innerhalb der von der Kamera erfassten Abbilder bei einer Bewegung des Anwenders11 durchführt, werden in Form der Bewegungsinformationen5 an die Datenverarbeitungseinrichtung8 gesendet. Diese Bewegungsinformationen5 sind z. B. 2-dimensionale Bewegungsvektoren einiger Punkte des Förderban des6 . Ihr Datenvolumen ist im Vergleich zu den in der Initialisierungsphase gesendeten komprimierten Bilddaten erheblich geringer. - Die Bewegungsinformationen
5 werden kontinuierlich in Form eines so genannten Feature Streams an die Datenverarbeitungseinrichtung8 gesendet. Auf der Datenverarbeitungseinrichtung8 ist ein so genannter Structure für Motion Algorithmus implementiert. Mittels dieses Algorithmus wird aus den 2-dimensionalen Bewegungsinformationen5 eine relative Positionsänderung des Objektes6 im Erfassungsbereich der Kamera2 bezüglich der verbleibenden dritten Raumdimension ermittelt. Insgesamt ist so die Positionsänderung und Orientierungsänderung des Objektes6 hinsichtlich aller 3 Raumdimensionen erfasst, so dass die entsprechende Poseninformationen9 generiert und an die mobile Vorrichtung1 gesendet werden können. Anhand der Poseninformationen9 kann eine positionsgenaue Einblendung der augmentierenden Informationen für den Wartungstechniker11 in dessen Blickfeld stattfinden. - Zur Verbesserung der Genauigkeit des beschriebenen Trackingsystems und zur Erhöhung dessen Dynamik werden die Relativbewegungen des Anwendersichtfeldes zusätzlich mittels eines Inertialsensors
12 getrackt. Die Inertialsensordaten werden schließlich mit den Poseninformationen9 synchronisiert und fusioniert, um ein noch besseres Trackingergebnis zu erhalten.
Claims (25)
- Vorrichtung (
1 ) mit – einer Bilderfassungseinheit (2 ) zur Erfassung einer realen Umgebung (3 ) und Generierung von Abbildern von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereich, – Verarbeitungsmitteln (4 ) zur Bestimmung von Bewegungsinformationen (5 ) durch Auswertung der Abbilder, wobei die Bewegungsinformationen (5 ) eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes (6 ) innerhalb der Abbilder kennzeichnen, – Sendemitteln zum Senden der Bewegungsinformationen (5 ) an eine Datenverarbeitungseinrichtung (8 ), – Empfangsmitteln zum Empfang von auf Basis der Bewegungsinformationen (5 ) generierten Poseninformationen (9 ), wobei die Poseninformationen (9 ) eine Position und eine Orientierung des Objektes (6 ) kennzeichnen. - Vorrichtung nach Anspruch 1, wobei die Vorrichtung (
1 ) mobil ausgeführt ist. - Vorrichtung (
1 ) nach Anspruch 1 oder 2, wobei die Sendemittel (2 ) zur digitalen Datenübertragung der Bewegungsinformationen (5 ) vorgesehen sind. - Vorrichtung (
1 ) nach einem der Ansprüche 1 bis 3, wobei die Sendemittel (2 ) zum Senden insbesondere komprimierter Bilddaten an die Datenverarbeitungseinrichtung (8 ) während einer Initialisierungsphase vorgesehen sind. - Vorrichtung (
1 ) nach einem der vorhergehenden Ansprüche, wobei die Bewegungsinformationen (5 ) Positionsänderungen innerhalb der Abbilder mindestens dreier Punkte des Objektes (6 ) bezüglich einer ersten und einer zweiten Raumdimensionen beschreiben und eine Ermittlung einer Positionsänderung der drei Punkte bezüglich der dritten Raumdimension durch die Datenverarbeitungseinrichtung (8 ) vorgesehen ist. - Vorrichtung (
1 ) nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (1 ) Darstellungsmittel (10 ) zur Darstellung erfasster und/oder empfangener Informationen für einen Anwender (11 ) umfasst. - Vorrichtung (
1 ) nach Anspruch 6, wobei die Informationen Augmented Reality Informationen umfassen. - Vorrichtung (
1 ) nach Anspruch 6 oder 7, wobei die Darstellungsmittel (10 ) als Datenbrille ausgeführt sind. - Vorrichtung (
1 ) nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (1 ) einen Inertialsensor (12 ) zur Erfassung von Bewegungen der Bilderfassungseinheit (2 ) aufweist. - Vorrichtung (
1 ) nach Anspruch 9, wobei die Verarbeitungsmittel (4 ) zur Synchronisation und Fusion der mittels des Inertialsensors (12 ) erfassten Bewegungen und der Poseninformationen (9 ) vorgesehen sind. - Vorrichtung (
1 ) nach einem der vorhergehenden Ansprüche, wobei die Verarbeitungsmittel (4 ) zur Kompensation einer Verarbeitungslatenz vorgesehen sind. - Vorrichtung (
1 ) nach einem der vorhergehenden Ansprüche, wobei die Sendemittel und/oder die Empfangsmittel zur drahtlosen Kommunikation vorgesehen sind. - System mit einer Vorrichtung (
1 ) nach einem der Ansprüche 1 bis 12 und einer Datenverarbeitungseinrichtung (8 ) zur Generierung der Poseninformationen (9 ). - Verfahren mit folgenden Verfahrensschritten: – Erfassen einer realen Umgebung (
3 ) und Generieren von Abbildern von einem innerhalb eines Zeitintervalls erfassten Umgebungsbereich mit einer an einer Vorrichtung (1 ) angeordneten Bilderfassungseinheit (2 ), – Bestimmen von Bewegungsinformationen (5 ) durch Auswerten der Abbilder mit an der Vorrichtung (1 ) angeordneten Verarbeitungsmitteln (4 ), wobei die Bewegungsinformationen (5 ) eine innerhalb des Zeitintervalls geschehene Veränderung der Position eines Objektes (6 ) innerhalb der Abbilder kennzeichnen, – Senden der Bewegungsinformationen (5 ) von der Vorrichtung (1 ) an eine Datenverarbeitungseinrichtung (8 ) und – Empfangen von auf Basis der Bewegungsinformationen (5 ) generierten Poseninformationen (9 ), wobei die Poseninformationen (9 ) eine Position und eine Orientierung des Objektes (6 ) kennzeichnen. - Verfahren nach Anspruch 14, wobei die Vorrichtung (
1 ) mobil ausgeführt ist. - Verfahren nach Anspruch 14 oder 15, wobei die Bewegungsinformationen (
5 ) digital übertragen werden. - Verfahren nach einem der Ansprüche 14 bis 16, wobei insbesondere komprimierte Bilddaten von der Vorrichtung (
1 ) an die Datenverarbeitungseinrichtung (8 ) während einer Initialisierungsphase gesendet werden. - Verfahren nach einem der Ansprüche 14 bis 17, wobei die Bewegungsinformationen (
5 ) Positionsänderungen innerhalb der Abbilder mindestens dreier Punkte des Objektes (6 ) bezüglich einer ersten und einer zweiten Raumdimensionen beschreiben und eine Positionsänderung der drei Punkte bezüglich der dritten Raumdimension durch die Datenverarbeitungseinrichtung (8 ) ermittelt wird. - Verfahren nach einem der Ansprüche 14 bis 18, wobei erfasste und/oder empfangene Informationen mit Darstellungsmitteln (
10 ) der Vorrichtung (1 ) für einen Anwender (11 ) dargestellt werden. - Verfahren nach Anspruch 19, wobei die Informationen Augmented Reality Informationen umfassen.
- Verfahren nach Anspruch 19 oder 20, wobei eine Datenbrille als Darstellungsmittel (
10 ) verwendet wird. - Verfahren nach einem der Ansprüche 14 bis 21, wobei mit einem Inertialsensor (
12 ) Bewegungen der Bilderfassungseinheit (2 ) erfasst werden. - Verfahren nach Anspruch 22, wobei mit den Verarbeitungsmitteln (
4 ) die mittels des Inertialsensors (12 ) erfassten Bewegungen und die Poseninformationen (9 ) synchronisiert und fusioniert werden. - Verfahren nach einem der Ansprüche 14 bis 23, wobei eine Verarbeitungslatenz mit den Verarbeitungsmitteln (
4 ) kompensiert wird. - Verfahren nach einem der Ansprüche 14 bis 24, wobei die Bewegungsinformationen (
5 ) drahtlos gesendet und die Poseninformationen (9 ) drahtlos empfangen werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005045973A DE102005045973A1 (de) | 2005-09-26 | 2005-09-26 | Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005045973A DE102005045973A1 (de) | 2005-09-26 | 2005-09-26 | Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005045973A1 true DE102005045973A1 (de) | 2007-04-05 |
Family
ID=37852527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005045973A Ceased DE102005045973A1 (de) | 2005-09-26 | 2005-09-26 | Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102005045973A1 (de) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008023439A1 (de) | 2008-05-14 | 2009-11-26 | Christian-Albrechts-Universität Zu Kiel | Augmented Reality Fernglas zur Navigationsunterstützung |
DE102009056013A1 (de) | 2009-09-09 | 2011-03-10 | Volkswagen Ag | Verfahren zum Erzeugen eines Augmented-Reality-Bildes |
DE102009040848A1 (de) | 2009-10-05 | 2011-04-07 | Volkswagen Ag | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102010012340A1 (de) | 2010-02-27 | 2011-09-01 | Volkswagen Ag | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug |
DE102011122206A1 (de) | 2011-12-23 | 2013-06-27 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102012014995A1 (de) | 2012-07-28 | 2014-01-30 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102017221305A1 (de) * | 2017-11-23 | 2019-05-23 | Robert Bosch Gmbh | Verfahren zum Betreiben eines kollaborativen Roboters |
DE102020127964A1 (de) | 2020-10-23 | 2022-04-28 | Technische Hochschule Lübeck | Verfahren und Vorrichtung zum schnellen Erfassen eines hyperspektralen Kubus eines Objekts oder einer Szene |
-
2005
- 2005-09-26 DE DE102005045973A patent/DE102005045973A1/de not_active Ceased
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008023439A1 (de) | 2008-05-14 | 2009-11-26 | Christian-Albrechts-Universität Zu Kiel | Augmented Reality Fernglas zur Navigationsunterstützung |
DE102008023439B4 (de) * | 2008-05-14 | 2011-02-17 | Christian-Albrechts-Universität Zu Kiel | Augmented Reality Fernglas zur Navigationsunterstützung |
DE102009056013A1 (de) | 2009-09-09 | 2011-03-10 | Volkswagen Ag | Verfahren zum Erzeugen eines Augmented-Reality-Bildes |
DE102009040848A1 (de) | 2009-10-05 | 2011-04-07 | Volkswagen Ag | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102009040848B4 (de) | 2009-10-05 | 2023-07-20 | Volkswagen Ag | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102010012340A1 (de) | 2010-02-27 | 2011-09-01 | Volkswagen Ag | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug |
DE102010012340B4 (de) | 2010-02-27 | 2023-10-19 | Volkswagen Ag | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug |
DE102011122206A1 (de) | 2011-12-23 | 2013-06-27 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102012014995A1 (de) | 2012-07-28 | 2014-01-30 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Augmented-Reality-Systems |
DE102017221305A1 (de) * | 2017-11-23 | 2019-05-23 | Robert Bosch Gmbh | Verfahren zum Betreiben eines kollaborativen Roboters |
DE102020127964A1 (de) | 2020-10-23 | 2022-04-28 | Technische Hochschule Lübeck | Verfahren und Vorrichtung zum schnellen Erfassen eines hyperspektralen Kubus eines Objekts oder einer Szene |
DE102020127964B4 (de) | 2020-10-23 | 2022-10-27 | Technische Hochschule Lübeck | Verfahren und Vorrichtung zum schnellen Erfassen eines hyperspektralen Kubus eines Objekts oder einer Szene |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2176833B1 (de) | Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt | |
DE102005045973A1 (de) | Vorrichtung, System und Verfahren für ein kamerabasiertes Tracking | |
EP3458939B1 (de) | Interaktionssystem und -verfahren | |
EP1701233A2 (de) | Generierung virtueller Welten auf Basis einer realen Umgebung | |
EP1362281A2 (de) | Anwendergesteuerte verknüpfung von informationen innerhalb eines augmented-reality-systems | |
EP1521211A2 (de) | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung | |
EP0824247A2 (de) | Verfahren zum Modifizieren dreidimensionaler Objekte | |
EP2325725A1 (de) | Verfahren zum reduzieren eines effekts auf virtuelle objekte | |
DE102019133756A1 (de) | Systems and methods for generating a lighting design | |
DE102009020307A1 (de) | Simulator für eine Sichtprüfungsvorrichtung | |
EP2721585B1 (de) | Verfahren und vorrichtung zum ermitteln und wiedergeben virtueller ortsbezogener informationen für einen raumbereich | |
DE102019103360A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille | |
DE102004021379A1 (de) | Bedien- und Beobachtungssystem für industrielle Anlagen | |
EP1605338A2 (de) | System und Verfahren zur Bestimmung einer Position, insbesondere für Augmented-Reality Anwendungen | |
DE102005060980B4 (de) | Verfahren und System zur Bestimmung eines kollisionsfreien dreidimensionalen Raumvolumens entlang eines Bewegungspfades gegenüber einer realen Umgebung | |
DE102020215559B4 (de) | Verfahren zum Betreiben eines Visualisierungssystems bei einer chirurgischen Anwendung und Visualisierungssystem für eine chirurgische Anwendung | |
DE102020129068A1 (de) | Verfahren und Vorrichtung zum Bestimmen einer Einbaupose einer Inertialsensorik in einer Datenbrille sowie eine Datenbrille | |
DE19819961A1 (de) | Automatische Blickpunktanalyse mit Methoden der Bilderkennung zur Computersteuerung | |
DE60108918T2 (de) | Interaktives Verfahren und Vorrichtung für Bildrundfunk einer beweglichen Videokamera | |
DE102005050350A1 (de) | System und Verfahren zur Überwachung einer technischen Anlage sowie Datenbrille auf Basis eines solchen Systems | |
EP3465076A1 (de) | Vorrichtung zur vermessung von objekten | |
WO2019007934A1 (de) | Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte | |
DE102018103333B3 (de) | Verfahren und System zur dynamischen Strukturanalyse | |
DE102019131640A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille | |
DE102015015695B4 (de) | Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |