DE102010027526B4 - Handführbares Vermessungs- und Projektionssystem und Verfahren - Google Patents
Handführbares Vermessungs- und Projektionssystem und Verfahren Download PDFInfo
- Publication number
- DE102010027526B4 DE102010027526B4 DE102010027526A DE102010027526A DE102010027526B4 DE 102010027526 B4 DE102010027526 B4 DE 102010027526B4 DE 102010027526 A DE102010027526 A DE 102010027526A DE 102010027526 A DE102010027526 A DE 102010027526A DE 102010027526 B4 DE102010027526 B4 DE 102010027526B4
- Authority
- DE
- Germany
- Prior art keywords
- surveying
- projection system
- image data
- projected
- relative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/366—Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
- Die Erfindung betrifft ein handführbares Vermessungs- und Projektionssystem mit einem Projektor zum Projizieren von vorgegebenen oder berechneten Bildern auf ein Objekt, das eine Oberfläche mit einem Oberflächenverlauf besitzt, und einem Lageermittlungssystem zum Ermitteln einer Lage (Position und Orientierung) des Vermessungs- und Projektionssystems relativ zum Objekt.
- Ein derartiges handführbares Vermessungs- und Projektionssystem ist aus der
US 2006/0235849 A1 - Dazu können beispielsweise Head-Mounted Displays verwendet werden, was kopf-fixierte Visualisierungssystem bezeichnet, die Informationen auf transparenten Flächen in Augennähe darstellen oder unmittelbar auf die Netzhaut projizieren. Bekannt sind auch so genannte See-Through-Devices in Form halbtransparenter, beweglicher Bildschirme, die unmittelbar im Blickfeld einer Person platziert werden. Auch sind stationäre und mobile Projektionssysteme zur lagerichtigen Projektion der visuellen Informationen bekannt. Die aus der
US 2006/0235849 A1 - Nachteilig an Head-Mounted-Displays ist, dass diese keine gemeinsame fokale Ebene für reale und virtuelle Objekte bieten und somit für den Träger belastend und ermüdend sind. Stationäre Projektionssysteme sind durch auftretende Abschattungen, hervorgerufen durch Objekte im Strahlengang (Line-Of-Sight-Problematik), in ihrer Anwendbarkeit eingeschränkt. Als weiterer Nachteil bestehender Systeme ist die Notwendigkeit externer Navigationssysteme zur Messung der Lage der Projektionsfläche bezüglich des Projektionssystems zu nennen.
- Aus der
US 2006/0235849 A1 - In der
DE 100 08 806 A1 ist ein stationäres Bildprojektionssystem beschrieben, bei dem die Kontur des Patienten mit einem Vermessungssystem, das vorzugsweise ein Laservermessungssystem ist, an der interessierenden Stelle aufgenommen und ein vorab aufgenommenes Bild innerer Organe auf den Körper projiziert. - Die
DE 10 2005 009 437 A1 beschreibt eine Vorrichtung zum Einblenden von virtuellen Objekten in ein eine Umgebung zeigendes Umgebungsbild, wobei unter anderem eine Laufzeitkamera eingesetzt werden kann. - Die
US 2009/0221907 A1 - Der Erfindung liegt die Aufgabe zugrunde, Bilder mit höherer Genauigkeit auf den Körper projizieren zu können.
- Die Erfindung löst das Problem durch ein Vermessungs- und Projektions- und Interaktionssystem gemäß Anspruch 1 und ein zugeordnetes Verfahren.
- Vorteilhaft an der Erfindung ist, dass die Erfindung die lagerichtige Projektion visueller Informationen auf beliebig deformierbare Oberflächen mit Hilfe eines handgeführten Projektionssystems erlaubt. Diese Art von Augmented Reality zeichnet sich gegenüber den aus dem Stand der Technik bekannten Technologien durch einfache Handhabbarkeit und hohe Flexibilität aus.
- Durch das Prinzip der Lagemessung durch Sensordatenfusion mit Daten einer Bilderfassungseinheit, einer inertialen Messeinheit oder eines externen Navigationssystems, was zu einer erhöhten Messgenauigkeit führen kann, was zudem eine eventuell vorhandene Totzeit verkürzt. Das führt zu einer erhöhten Lagegenauigkeit der projizierten Informationen. Vorteilhaft ist zudem, dass konventionelle, externe Navigationssysteme entbehrlich sind, wodurch die Einsatzmöglichkeiten des Vermessungs- und Projektionssystems signifikant erweitert sind.
- Es ist ein weiterer Vorteil, dass das erfindungsgemäße Vermessungs- und Projektionssystem eine Interaktion mit den projizierten Bildern auf Basis der Auswertung von Tiefenbildern ermöglich. Das lässt zahlreiche Anwendungen zu. So ist gemäß einer bevorzugten Ausführungsform vorgesehen, dass virtuelle Bedienflächen unmittelbar auf der Projektionsfläche dargestellt werden, die durch Berühren mit einem Betätigungselement virtuell betätigt werden können. Alternativ sind Benutzereingaben durch Ausführen von Gesten möglich.
- Es ist ein weiterer Vorteil, dass die Vermessung des dreidimensionalen Oberflächenverlaufs das Aufprojizieren von Bildern auf das Objekt nicht behindert, wie es beispielsweise bei einer Streifenprojektion der Fall wäre. Ein weiterer Vorteil ist, dass bei Verfahren zum Ermitteln des dreidimensionalen Oberflächenverlaufs der Abstand zwischen Kamera und dem Projektor eine Rolle spielen kann, was bei der erfindungsgemäßen Lösung jedoch nicht der Fall ist. Somit ist im Gegensatz zu sequentiellen Vermessungs- und Projektionssystemen (Streifenprojektion) eine kontinuierliche und zur Projektion zeitgleiche Oberflächenvermessung möglich.
- Mit Hilfe des erfindungsgemäßen Vermessungs- und Projektionssystems können visuelle Informationen lagerichtig auf deformierbare Oberflächen projiziert werden. Die Vermessung derartiger Projektionsflächen kann in Echtzeit unter Anwendung des laufzeitbasierten Verfahrens erfolgen, wobei die gewonnenen Tiefeninformationen unmittelbar in die Vorverarbeitung des zu projizierenden Bilds einfließen können. Zudem können die Informationen zur Registrierung des Oberflächenverlaufs auf bereits vorhandene Bilddaten des Objektes genutzt werden. Hierzu kann beispielsweise der Iterative-Closest-Point Algorithmus (ICP) verwendet werden. Bei vorhandenem Modellwissen über das Objekt ist eine Selbstlokalisation des Projektionssystems möglich. Diese kann, wie in einer bevorzugten Ausführungsform vorgesehen, mit Hilfe zusätzlicher Daten einer inertialen Messeinheit oder einer Bilderfassungseinheit verbessert und robustifiziert werden.
- In anderen Worten ist eine Lagebestimmung ohne Verwendung externe Sensorik, wie beispielsweise externen optischen Navigationssystemen, möglich. Durch die Verwendung der Laufzeit-Kamera ergibt sich eine gegenüber konventionellen Navigationssystemen erhöhte Messgenauigkeit. Die Erfindung ermöglicht zudem die Interaktion mit der Projektion, also mit dem projizierten Bild, wobei diese Interaktion sowohl durch Berühren projizierter Objekte als auch durch Gestenerkennung realisiert sein kann und auf der Auswertung dreidimensionaler Bilddaten basiert. Das Datenverarbeitungssystem ist damit insbesondere eingerichtet zur lagerichtigen, unverzerrten Darstellung visueller Informationen.
- Es ist günstig, wenn die Laufzeit-Kamera so ausgebildet ist, dass eine Erfassung des dreidimensionalen Oberflächenverlaufs in Echtzeit möglich ist. Insbesondere ist es vorteilhaft, wenn pro Sekunde zumindest 20 mal der Abstand zwischen der Laufzeit-Kamera und den entsprechenden Punkten auf dem Oberflächenverlauf vermessen wird. So wird eine schnelle Reaktion auf eine etwaige Bewegung des Objekts ermöglicht.
- Das handgeführte Vermessungs- und Projektionssystem kann einen Inertialsensor zum Erfassen von Beschleunigungsdaten, die dreidimensionale Beschleunigungen des Vermessungs- und Projektionssystems kodieren, besitzen, wobei das Datenverarbeitungssystem eingerichtet ist zum automatischen Errechnen einer Lage des Vermessungs- und Projektionssystems relativ zum Objekt durch Fusionieren der Laufzeit-Bilddaten und der Daten der inertialen Messeinheit sowie der Bilddaten der Bilderfassungseinheit. In einer bevorzugten Ausführungsform erfolgt diese Fusion der Einzeldaten mittels Mehrgrößen-Zustandsschätzern oder -Filtern wie beispielsweise einem Kalman Filter. Vorteilhaft daran ist, dass die Lage des Objekts im Raum, das heißt insbesondere relativ zum Vermessungs- und Projektionssystem, robust und präzise und bestimmt wird.
- Alternativ oder zusätzlich besitzt das Vermessungs- und Projektionssystem eine Kamera zum Aufnehmen von Bilddaten eines Objekts, wobei das Datenverarbeitungssystem eingerichtet ist zum automatischen Erkennen einer auf dem Objekt vorhandenen Markierung oder natürlicher Landmarke und zum Errechnen der Lage des Vermessungs- und Projektionssystems relativ zum Objekt durch Fusionieren der Laufzeit-Bilddaten und zumindest auch der Bilddaten bzw. unter Verwendung von Modellwissen. Aufgrund der Verknüpfung sensorischer Informationen der Laufzeit-Kamera, gegebenenfalls des Inertialsensors und der Kamera können Messfehler, die beispielsweise bei der Abschattung eines optischen Navigationssystems entstehen können, vermieden werden. Es wird durch das Verwenden der Kamera daher eine besonders hohe Messgenauigkeit und Robustheit erreicht.
- Gemäß einer bevorzugten Ausführungsform ist das Datenverarbeitungssystem eingerichtet zum automatischen Ansteuern des Projektors so, dass eine Bedienfläche auf das Projekt projiziert wird, zum automatischen Erfassen einer räumlichen Lage des Bedienelements, insbesondere eines Teils der Hand, relativ zur auf das Projekt projizierten Bedienfläche und zum Erfassen einer Bedienaktion, wenn das Bedienelement einen vorgegebenen Mindestabstand zur auf der Oberfläche projizierten Bedienfläche unterschreitet. Vorteilhaft hieran ist, dass das Vermessungs- und Projektionssystem auch als Eingabesystem verwendet werden kann. Soll beispielsweise eine spätere Schnittlinie für eine chirurgische Operation auf einen menschlichen Körper projiziert werden, so kann durch Erfassen der Bedienflächen ein Modus aktiviert werden, mittels dem die Lage dieser Schnittlinien verändert wird.
- Gemäß einer bevorzugten Ausführungsform wird das erfindungsgemäße Verfahren an einem Objekt durchgeführt, das eine deformierbare Oberfläche besitzt. Ändert sich deren Oberflächenverlauf, so kann dies mit der Laufzeit-Kamera erfasst werden, so dass eine zeitnahe Reaktion möglich ist.
- Insbesondere umfasst ein erfindungsgemäßes Verfahren daher die Schritte einer Vermessung einer deformierbaren Oberfläche des Objektes, einer Lagebestimmung des Projektionssystems bezüglich der Projektionsfläche, einer lagerichtigen Projektion visueller Informationen und einer Erfassung von Benutzereingaben.
- In einem erfindungsgemäßen Verfahren werden bevorzugt Gesten eines Bedieners erkannt, aus denen dann Bedienanweisungen für ein Programm, beispielsweise für das Projektionsprogramm oder die Steuerprogramme angeschlossener Peripheriegeräte, abgeleitet werden.
- Im Folgenden wird die Erfindung anhand der beigefügten Zeichnung näher erläutet. Dabei zeigt
-
1 ein erfindungsgemäßes handführbares Vermessungs- und Projektionssystem. -
1 zeigt ein erfindungsgemäßes handführbares Vermessungs- und Projektionssystem10 mit einem Projektor12 zum Projizieren von vorgegebenen oder berechneten Bildern14 auf ein Objekt16 , das eine Oberfläche18 mit dem in1 dargestellten gekrümmten Oberflächenverlauf besitzt. Der dreidimensionale Oberflächenverlauf kann durch diejenige Funktion beschrieben werden, die in Abhängigkeit von zwei Raumkoordinaten, beispielsweise einer x- und einer y-Koordinate, denjenigen z-Wert angibt, für den der entsprechende Punkt (x, y, z) auf der Oberfläche18 des Objektes16 liegt. - Das Vermessungs- und Projektionssystem
10 besitzt zudem ein Lageermittlungssystem20 , das einen Prozessor aufweist, mittels dem die Lage des Vermessungs- und Projektionssystems10 relativ zum Objekt16 in einem Koordinatensystem22 bestimmbar ist (34a ). - Das Lageermittlungssystem
20 kann in einem Gehäuse24 des Vermessungs- und Projektionssystems10 aufgenommen sein, An dem Gehäuse24 ist ein Handgriff26 ausgebildet, mittels dem das Vermessungs- und Projektionssystem10 in der Hand gehalten werden kann. - Das Lageermittlungssystem
20 umfasst eine schematisch eingezeichnete Laufzeit-Kamera28 , die im Englischen auch als time-of-flight-camera bekannt ist. Die Laufzeit-Kamera28 steht über eine elektrische Verbindung in Kontakt mit dem Prozessor des Lageermittlungssystems20 , mit Hilfe dessen die Lage des Vermessungs- und Projektionssystems10 relativ zum Objekt16 , ausgedrückt im Koordinatensystem22 berechnet wird. - Das Vermessungs- und Projektionssystem
10 umfasst im Gehäuse24 zudem einen Inertialsensor30 zum Bestimmen der vektoriellen Beschleunigung a →(t) = (ẍ(t)y ..(t)z ..(t)) des dreidimensionalen Beschleunigungszustandes und der vektoriellen Winkelgeschwindigkeiten w →(t) = (α .(t)β .(t)γ .(t)). Auch der Inertialsensor30 ist mit dem Lageermittlungssystem20 verbunden. Das Lageermittlungssystem20 ist ausgebildet zum Ermitteln der Lage des Gehäuses24 relativ zum Koordinatensystem22 durch zweifache Integration der vom Inertialsensor30 kommenden Daten. Diese Daten werden mit den von der Laufzeit-Kamera28 erhaltenen Tiefenprofilen abgeglichen, so dass die Position des Objektes16 mit hoher Genauigkeit berechnet werden kann. - Das Vermessungs- und Projektionssystem
10 umfasst zudem eine Kamera32 , mittels der zumindest ein vom Projektor12 auf das Objekt16 projiziertes Bild14 erfasst werden kann. -
1 zeigt schematisch, dass ein Datenverarbeitungssystem34 des Lageermittlungssystems20 , das beispielsweise einen Mikroprozessor mit einem Digitalspeicher umfasst, eingerichtet ist zum Erfassen des Oberflächenverlaufs der Oberfläche18 des Objektes16 in drei Dimensionen (34c ), beispielsweise ausgedrückt im Koordinatensystem22 . Zudem ist das Datenverarbeitungssystem34 eingerichtet zur Lagebestimmung des Projektors12 bezüglich der Projektionsfläche, die durch das Objekt16 bzw. dessen Oberfläche18 gebildet ist durch Vergleich des erfassten Oberflächenverlaufs mit im Datenverarbeitungssystem34 hinterlegtem Modellwissen über das Objekt16 (34c ). - Das Datenverarbeitungssystem
34 ist zudem eingerichtet zum Berechnen eines angepassten Bildes aus dem vorgegebenen Bild (34b ). Das heißt, dass das Datenverarbeitungssystem34 die einzelnen Pixel des vorgegebenen Bildes erfasst und ein neues, angepasstes Bild berechnet, das so angepasst ist, dass es dann, wenn es auf die Oberfläche18 des Objekts16 projiziert wird, für einen schematisch eingezeichneten Bediener36 als im Wesentlich das unverzerrte, vorgegebene Bild erscheint. - In Echtzeit erfasst die Kamera
32 das vom Projektor12 auf die Oberfläche18 projizierte angepasste Bild und erfasst zusätzlich die Bewegung eines Bedienelements38 , das durch die menschliche Hand des Bedieners38 gebildet sein kann. Wenn das vorgegebene Bild und damit das auf die Oberfläche18 projizierte Bild Bedienflächen40.1 ,40.2 aufweist, so ermittelt das Datenverarbeitungssystem34 die Lage des Bedienelements38 relativ zu den Bedienflächen40 und berechnet den Abstand zwischen beiden. Unterschreitet dieser Abstand einen vorgegebenen Mindest-Abstand, so wird dies als Betätigung der Bedienflächen40.1 ,40.2 aufgefasst und ein entsprechendes Signal an ein auf dem Datenverarbeitungssystem34 oder einer externen Rechnereinheit laufendes Programm abgegeben (34d ). Dadurch wird eine Interaktion mit dem Programm möglich. - Günstig ist es, wenn es sich bei dem Objekt
16 um einen Patienten, beispielsweise um einen tierischen oder menschlichen Patienten, handelt. Das Bild14 kann dann beispielsweise medizinische Risikostrukturen darstellen oder die Lage von Organen illustrieren. - Bezugszeichenliste
-
- 10
- Vermessungs- und Projektionssystem
- 12
- Projektor
- 14
- Bild
- 16
- Objekt
- 18
- Oberfläche
- 20
- Lageermittlungssystem
- 22
- Koordinatensystem
- 24
- Gehäuse
- 26
- Handgriff
- 28
- Laufzeit-Kamera
- 30
- Inertialsensor
- 32
- Kamera
- 34
- Datenverarbeitungssystem
- 36
- Bediener
- 38
- Bedienelement
- 40
- Bedienfläche
Claims (6)
- Handführbares Vermessungs- und Projektionssystem mit (a) einem Projektor (
12 ) zum Projizieren von vorgegeben Bildern auf ein Objekt (16 ), das eine Oberfläche (18 ) mit einem Oberflächenverlauf besitzt, und (b) einem Lageermittlungssystem (20 ) zum Ermitteln einer Lage des Vermessungs- und Projektionssystems relativ zu dem Objekt (16 ), dadurch gekennzeichnet, dass (c) das Lageermittlungssystem (20 ) eine Laufzeit-Kamera (28 ) umfasst, die eingerichtet ist zum automatischen Erfassen von Laufzeit-Bilddaten und zum Ermitteln des dreidimensionalen Oberflächenverlaufs aus den Laufzeit-Bilddaten und dass (d) das Vermessungs- und Projektionssystem einen Inertialsensor (30 ) zum Erfassen von Beschleunigungsdaten, die dreidimensionale Beschleunigungen des Vermessungs- und Projektionssystems kodieren und/oder eine Kamera (32 ) zum Aufnehmen von Bilddaten des Objekts (16 ) und ein Datenverarbeitungssystem (34 ) aufweist, das ausgebildet ist zum automatischen (i) Errechnen einer Lage des Vermessungs- und Projektionssystems (10 ) relativ zum Objekt (16 ) durch Fusionieren der Laufzeit-Bilddaten und der Beschleunigungsdaten und/oder Erkennen einer auf dem Objekt (16 ) vorhandenen Markierung und Errechnen der Lage des Vermessungs- und Projektionssystems (10 ) relativ zum Objekt (16 ) durch Fusionieren der Laufzeit-Bilddaten und zumindest auch der Bilddaten, (ii) Erfassen des Oberflächenverlaufs in drei Dimensionen, (iii) Korrigieren der vorgegebenen Bilder in Bezug auf den Oberflächenverlauf, so dass eine Verzerrung durch einen gekrümmten Oberflächenverlauf korrigiert wird, und (iv) Projizieren des korrigierten Bilds auf die Oberfläche (18 ). - Handführbares Vermessungs- und Projektionssystem nach Anspruch 1, dadurch gekennzeichnet, dass das Datenverarbeitungssystem (
34 ) eingerichtet ist zum automatischen – Ansteuern des Projektors (12 ) so, dass eine Schaltfläche (40 ) auf das Objekt (16 ) projiziert wird, – Erfassen einer räumlichen Lage eines Bedienelements (38 ), insbesondere eines Teils einer Hand, relativ zur auf das Objekt (16 ) projizierten Schaltfläche (40 ) und – Erfassen einer Bedienaktion, wenn das Bedienelement (38 ) einen vorgegebenen Mindestabstand zur auf die Oberfläche (18 ) projizierten Schaltfläche (40 ) unterschreitet. - Verfahren zum Projizieren von vorgegebenen Bildern auf ein Objekt (
16 ), das eine Oberfläche mit einem Oberflächenverlauf besitzt, mit den Schritten: (a) Erfassen des Oberflächenverlaufs mit einer Laufzeit-Kamera (28 ), so dass Laufzeit-Bilddaten erhalten werden, (b) Errechnen des dreidimensionalen Oberflächenverlaufs aus den Laufzeit-Bilddaten, (c) Bestimmen einer Lage der Laufzeit-Kamera (28 ) relativ zum Objekt (16 ), (d) Korrigieren der vorgegebenen Bilder in Bezug auf den Oberflächenverlauf, so dass eine Verzerrung durch einen gekrümmten Oberflächenverlauf korrigiert wird, und (e) Projizieren des korrigierten Bilds auf die Oberfläche (18 ) (f) Ansteuern des Projektors (12 ) so, dass eine Schaltfläche (40 ) auf das Objekt (16 ) projiziert wird, (g) Erfassen einer räumlichen Lage eines Bedienelements (38 ), insbesondere eines Teils einer Hand, relativ zur auf das Objekt (16 ) projizierten Schaltfläche (40 ) und (h) Erfassen einer Bedienaktion, wenn das Bedienelement (38 ) einen vorgegebenen Mindestabstand zur, auf die Oberfläche (18 ) projizierten Schaltfläche (40 ), unterschreitet. - Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das auf das Objekt (
16 ) projizierte Bild ein Organ ist. - Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass das Bild auf einen menschlichen Körper projiziert wird, um die Lage des Organs im Körper anzuzeigen.
- Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass ein Vermessungs- und Projektionssystem nach einem der Ansprüche 1 oder 2 eingesetzt und mit der Hand geführt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010027526A DE102010027526B4 (de) | 2010-07-16 | 2010-07-16 | Handführbares Vermessungs- und Projektionssystem und Verfahren |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010027526A DE102010027526B4 (de) | 2010-07-16 | 2010-07-16 | Handführbares Vermessungs- und Projektionssystem und Verfahren |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010027526A1 DE102010027526A1 (de) | 2012-01-19 |
DE102010027526B4 true DE102010027526B4 (de) | 2012-04-19 |
Family
ID=45402871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010027526A Expired - Fee Related DE102010027526B4 (de) | 2010-07-16 | 2010-07-16 | Handführbares Vermessungs- und Projektionssystem und Verfahren |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010027526B4 (de) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013203399A1 (de) * | 2013-02-28 | 2014-08-28 | Siemens Aktiengesellschaft | Verfahren und Projektionsvorrichtung zur Markierung einer Oberfläche |
DE102013216997A1 (de) * | 2013-08-27 | 2015-03-05 | Robert Bosch Gmbh | Messvorrichtung |
US10722200B2 (en) | 2015-06-04 | 2020-07-28 | Siemens Healthcare Gmbh | Apparatus and methods for a projection display device on X-ray imaging devices |
AU2018280144B2 (en) * | 2017-06-08 | 2021-03-25 | Medos International Sàrl | User interface systems for sterile fields and other working environments |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10008806A1 (de) * | 2000-02-25 | 2001-12-06 | Siemens Ag | Hautprojektor |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
US20060235849A1 (en) * | 2005-02-24 | 2006-10-19 | Robert Schmidt | Portable laser projection device for medical image display |
US20090096994A1 (en) * | 2007-10-10 | 2009-04-16 | Gerard Dirk Smits | Image projector with reflected light tracking |
US20090221907A1 (en) * | 2008-02-29 | 2009-09-03 | Bar-Tal Meir | Location system with virtual touch screen |
-
2010
- 2010-07-16 DE DE102010027526A patent/DE102010027526B4/de not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10008806A1 (de) * | 2000-02-25 | 2001-12-06 | Siemens Ag | Hautprojektor |
US20060235849A1 (en) * | 2005-02-24 | 2006-10-19 | Robert Schmidt | Portable laser projection device for medical image display |
DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
US20090096994A1 (en) * | 2007-10-10 | 2009-04-16 | Gerard Dirk Smits | Image projector with reflected light tracking |
US20090221907A1 (en) * | 2008-02-29 | 2009-09-03 | Bar-Tal Meir | Location system with virtual touch screen |
Also Published As
Publication number | Publication date |
---|---|
DE102010027526A1 (de) | 2012-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007033486B4 (de) | Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild | |
EP3458939B1 (de) | Interaktionssystem und -verfahren | |
DE102012219280A1 (de) | Fahrerassistenzsystem und Verfahren | |
WO2012107041A1 (de) | Endoskopisches bildverarbeitungssystem mit mitteln, welche im erfassungsbereich einer optischen digitalkamera eine geometrische vermessungsinformation erzeugen | |
DE102015212806A1 (de) | System und Verfahren zum Scannen von anatomischen Strukturen und zum Darstellen eines Scanergebnisses | |
DE112012005524T5 (de) | Verfahren und Vorrichtung zur Verwendung von Gesten zur Steuerung eines Lasertrackers | |
US20180133593A1 (en) | Algorithm for identifying three-dimensional point-of-gaze | |
US20160379368A1 (en) | Method for determining an imaging specification and image-assisted navigation as well as device for image-assisted navigation | |
DE102014226185B4 (de) | Verfahren und Blickrichtungserkennungssystem zum Bestimmen einer Blickrichtung einer Person, sowie Verwendung des Blickrichtungserkennungssystems in einem Kraftfahrzeug | |
EP2886043A1 (de) | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten | |
DE102012220115A1 (de) | Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung | |
DE102015210302B4 (de) | Verfahren zum Steuern der Bewegung einer Koordinatenmessmaschine | |
DE102010027526B4 (de) | Handführbares Vermessungs- und Projektionssystem und Verfahren | |
DE102014015871B4 (de) | Anzeigesystem für einen Kraftwagen, Kraftwagen mit einem Anzeigesystem und Verfahren zum Betreiben eines Anzeigesystems | |
DE102015115526A1 (de) | Verfahren zur Zielerfassung von Zielobjekten, insbesondere zur Zielerfassung von Bedienelementen in einem Fahrzeug | |
EP2325725A1 (de) | Verfahren zum reduzieren eines effekts auf virtuelle objekte | |
EP2849026A1 (de) | Daten- und/oder Kommunikationsgerät sowie Verfahren zu dessen Steuerung | |
EP1665023B1 (de) | Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen | |
EP1813911A1 (de) | Positionsbestimmungssystem | |
DE102017219790A1 (de) | System und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille, System und Verfahren zum Einmessen einer Augmented-Reality-Brille, Verfahren zum Unterstützen einer Posenbestimmung einer Augmented-Reality-Brille und für das Verfahren geeignetes Kraftfahrzeug | |
DE102019113799A1 (de) | Messsystem zum Vermessen eines Messobjekts | |
DE102019201134B4 (de) | Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug | |
DE102010012340B4 (de) | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug | |
DE102016009332A1 (de) | Parkassistenzsystem zum Auswählen eines Parkplatzes und zum augmentierten Darstellen des ausgewählten Parkplatzes | |
DE102013211046A1 (de) | Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |
Effective date: 20120720 |
|
R081 | Change of applicant/patentee |
Owner name: KOBLER, JAN-PHILIPP, DIPL.-ING. (FH), DE Free format text: FORMER OWNER: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE Effective date: 20131107 Owner name: DAGEN, MATTHIAS, DIPL.-ING., DE Free format text: FORMER OWNER: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE Effective date: 20131107 Owner name: ORTMAIER, TOBIAS, PROF. DR.-ING., DE Free format text: FORMER OWNER: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE Effective date: 20131107 Owner name: HUSSONG, ANDREAS, DIPL.-ING., DE Free format text: FORMER OWNER: GOTTFRIED WILHELM LEIBNIZ UNIVERSITAET HANNOVER, 30167 HANNOVER, DE Effective date: 20131107 |
|
R082 | Change of representative |
Representative=s name: GRAMM, LINS & PARTNER GBR, DE Effective date: 20131107 Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE Effective date: 20131107 |
|
R082 | Change of representative |
Representative=s name: GRAMM, LINS & PARTNER PATENT- UND RECHTSANWAEL, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |