DE102015212352A1 - Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts - Google Patents
Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts Download PDFInfo
- Publication number
- DE102015212352A1 DE102015212352A1 DE102015212352.9A DE102015212352A DE102015212352A1 DE 102015212352 A1 DE102015212352 A1 DE 102015212352A1 DE 102015212352 A DE102015212352 A DE 102015212352A DE 102015212352 A1 DE102015212352 A1 DE 102015212352A1
- Authority
- DE
- Germany
- Prior art keywords
- marker
- evaluation unit
- unit
- optical recording
- examined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 238000004590 computer program Methods 0.000 title claims abstract description 16
- 239000003550 marker Substances 0.000 claims abstract description 143
- 238000011156 evaluation Methods 0.000 claims abstract description 33
- 230000003287 optical effect Effects 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000009466 transformation Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 2
- 230000004807 localization Effects 0.000 abstract description 8
- 230000005540 biological transmission Effects 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000003302 ferromagnetic material Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010147 laser engraving Methods 0.000 description 1
- 238000010329 laser etching Methods 0.000 description 1
- 230000005291 magnetic effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011477 surgical intervention Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1408—Methods for optical code recognition the method being specifically adapted for the type of code
- G06K7/1417—2D bar codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1439—Methods for optical code recognition including a method step for retrieval of the optical code
- G06K7/1443—Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1439—Methods for optical code recognition including a method step for retrieval of the optical code
- G06K7/1456—Methods for optical code recognition including a method step for retrieval of the optical code determining the orientation of the optical code with respect to the reader and correcting therefore
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Toxicology (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren, eine Anordnung und eine Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur (4) angeordnet ist, die zumindest Abmessungen und/oder eine Größe des Markers (3) codiert kennzeichnet. Hierzu erfolgt ein optisches Aufnehmen (8) mindestens eines Einzelbilds (21) des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit (5) und Übermitteln des mindestens einen Einzelbilds (21) an eine Auswerteeinheit (7), ein Durchführen einer Markerlokalisation (9) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7), ein Festlegen eines Bildausschnitts (10) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7), in dem sich der Marker befindet, ein Durchführen einer Markerdetektion (11) durch die Auswerteeinheit (7), bei der die an dem oder auf dem Marker (3) angeordnete Struktur (4) erfasst wird, und ein Verarbeiten der bei der Markerdetektion (12) erfassten Struktur (4), wobei zumindest eine Position und bzw. oder eine Orientierung des Markers (3) in Bezug zu der optischen Aufnahmeeinheit (5) aus den durch die Struktur (4) codierten Abmessungen oder der Größe des erfassten Markers (3) und der erfassten Struktur (4) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit ermittelt und in der Auswerteeinheit (7) gespeichert werden und/oder auf einer Ausgabeeinheit (20) dargestellt werden.
Description
- Die vorliegende Erfindung betrifft ein Verfahren, eine Anordnung und ein Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts.
- Zum Bestimmen einer Patientenlage und einer Instrumentenlage in einem Operationssaal oder zum Bestimmen einer Werkzeuglage in einer Werkhalle gibt es zwei verschiedene Messprinzipien: Optisches Tracking und elektromagnetisches Tracking. Beim optischen Tracking wird ein externes Stereokameramesssystem verwendet, das eine Anordnung von Reflektorkugeln vermisst und daraus eine Lage der Instrumente bzw. des Patienten bestimmt. Nachteilig an dieser Variante ist, dass nur ein eingeschränkter Patientenzugang des medizinischen Personals im Operationssaal möglich ist, um eine Kamerasichtlinie nicht zu kreuzen und somit die Aufnahme zu stören (sogenannte Line-of-Sight-Problematik). Außerdem fallen hohe Investitionskosten bei einer Anschaffung eines derartigen Systems an und laufende Kosten für die erforderlichen Einweg-Reflektorkugeln müssen berücksichtigt werden. Überdies ist jedem Instrument in dem Operationssaal eine einzigartige Anordnung von Reflektorkugeln zugeordnet, die eingemessen und spezifiziert werden müssen.
- Das elektromagnetische Instrumententracking nutzt ein mit einem Feldgenerator erzeugtes Magnetfeld zur Messung einer Lage einer Sensorspule am Instrument bzw. in einem Operationsgebiet. Diese Spule ermöglicht es, Aufschluss über die Position und Orientierung des Instruments zu erhalten. Wesentlicher Nachteil dieses Verfahrens ist eine hohe Ungenauigkeit und Störempfindlichkeit gegenüber elektrisch leitfähigen oder ferromagnetischen Materialien.
- Der vorliegenden Erfindung liegt damit die Aufgabe zugrunde, ein Verfahren und eine Anordnung zu entwickeln, die die genannten Nachteile vermeiden, mit denen also mit hoher Genauigkeit und Zuverlässigkeit eine Lage eines zu untersuchenden Objekts bestimmt werden kann.
- Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1, eine Anordnung nach Anspruch 7 und ein Computerprogrammprodukt nach Anspruch 10. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.
- Ein Verfahren zur Lageerfassung eines zu untersuchenden Objekts, an dem ortsfest ein Marker mit einer optisch auslesbaren Struktur angeordnet ist, die zumindest Abmessungen und bzw. oder eine Größe des Markers codiert kennzeichnet, umfasst mehrere Schritte. In einem der Schritte erfolgt ein optisches Aufnehmen mindestens eines Einzelbilds des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit und ein Übermitteln des mindestens einen Einzelbilds an eine Auswerteeinheit. Nachfolgend wird in dem mindestens einen Einzelbild eine Markerlokalisation durchgeführt. In einem weiteren Schritt wird durch die Auswerteeinheit ein Bildausschnitt in dem mindestens einen Einzelbild festgelegt, in dem sich der Marker befindet. Es wird eine Markerdetektion durch die Auswerteeinheit durchgeführt, bei der die an dem oder auf dem Marker angeordnete Struktur erfasst wird. Schließlich wird die bei der Markerdetektion erfasste Struktur verarbeitet, wobei zumindest eine Position und bzw. oder eine Orientierung des Markers in Bezug zu der optischen Aufnahmeeinheit aus den Abmessungen oder der Größe des erfassten Markers und bzw. oder der erfassten Struktur in dem mindestens einen Einzelbild durch die Auswerteeinheit ermittelt und in der Auswerteeinheit gespeichert werden und bzw. oder auf einer Ausgabeeinheit dargestellt werden. Die Abmessungen und bzw. oder die Größe des erfassten Markers bzw. der erfassten Struktur sind hierbei durch die optisch auslesbare Struktur codiert, d. h. insbesondere in der Struktur durch Zeichen enthalten.
- Dadurch, dass der Marker ortsfest an dem zu untersuchenden Objekt angebracht ist und mit der optisch auslesbaren Struktur versehen ist, können Informationen in der optisch auslesbaren Struktur codiert sein, die das zu untersuchende Objekt näher beschreiben und zu einer Lageerfassung herangezogen werden können. Durch die ortsfeste Befestigung kann aus einer Lageänderung des Markers auch auf eine Lageänderung des zu untersuchenden Objekts geschlossen werden. Dies ist umso einfacher möglich, da die Abmessungen bzw. die Größe des Markers durch die Struktur des Markers nach der Aufnahme bereits bekannt sind und im Rahmen des Verarbeitens der bei der Markerdetektion erfassten Struktur auch mit einer bei der Markerdetektion bestimmten Größe in Beziehung gesetzt werden kann. Da eine optische Aufnahmetechnik Anwendung findet, ist mit hinreichend hoher Genauigkeit durch die bereits bekannte Größe des Markers von der Aufnahmeeinheit zuverlässig die Position und die Orientierung berechenbar. Die Markerlokalisation dient hierbei zunächst dem Erfassen des Markers in dem jeweiligen Einzelbild, wohingegen bei der Markerdetektion die gewünschten Informationen erfasst werden. Während die Markerlokalisation somit vergleichsweise geringe Genauigkeitsanforderungen hat, soll der Marker erst bei der Markerdetektion mit erhöhter Genauigkeit bestimmbar sein. Durch das Ausgeben der durch das Verfahren erlangten Informationen über das zu untersuchende Objekt auf der Ausgabeeinheit kann auch ein Benutzer diese Informationen wahrnehmen. Die genannten Schritte müssen nicht alle in der angegebenen Reihenfolge durchgeführt werden, insbesondere kann bereits vor dem Durchführen der Markerdetektion aus der Größe des Markers eine Positionsbestimmung bzw. Orientierungsbestimmung durchgeführt werden.
- Vorzugsweise ist durch die Struktur des Markers eine Größe, eine Bezeichnung, ein Typ und bzw. oder eine Form des zu untersuchenden Objekts gekennzeichnet. Diese Informationen dienen einer genaueren Erfassung des jeweiligen Objekts, insbesondere falls mehrere zu untersuchende Objekte mit jeweils daran angeordneten Markern verwendet werden. Es kann aber auch eine Transformation von einem Schwerpunkt des Markers oder des zu untersuchenden Objekts zu einem vorab festgelegten Punkt in der Struktur des Markers codiert sein. Auch bislang unbekannte zu untersuchende Objekte, beispielsweise bislang nicht verwendete Instrumente können so schnell mit ihren Eigenschaften erfasst und verwendet werden. Das Verfahren kann somit schneller und zuverlässiger als vergleichbare Verfahren zur Lageerfassung durchgeführt werden.
- Es kann vorgesehen sein, dass von der Auswerteeinheit der Abstand zwischen dem Marker und der optischen Aufnahmeeinheit bestimmt wird, um zusätzliche Informationen über die Anordnung des Markers in einem von der optischen Aufnahmeeinheit erfassten Raumbereich zu erhalten.
- Typischerweise ist die Struktur des Markers durch einen Strichcode, einen QR-Code (Quick Response-Code), mindestens eine Kante und bzw. oder kreisförmige Strukturen mit mindestens zwei Farben gebildet. Die genannten Strukturen sind optisch einfach und eindeutig zu erfassen und bieten auf relativ kleinem Raum eine verhältnismäßig große Informationsdichte. Alternativ oder zusätzlich kann die Struktur des Markers die Informationen auch in beliebiger verschlüsselter Form enthalten, so dass die Auswerteeinheit nur bei bekanntem, in der Aufnahmeeinheit hinterlegten Schlüssel zum Entschlüsseln auf die Informationen zugreifen kann.
- In einer Ausführungsform wird vor dem optischen Aufnehmen des mindestens einen Einzelbilds eine Kalibrierung der Aufnahmeeinheit durchgeführt, um eine ordnungsgemäße Funktionsweise der Aufnahmeeinheit zu gewährleisten.
- Es kann auch vorgesehen sein, mehrere Einzelbilder zeitlich nacheinander aufzunehmen und in jedem der Einzelbilder den Marker und die Struktur wie beschrieben zu erfassen.
- Typischerweise wird von der Auswerteeinheit beim Verarbeiten der Strukturen eine Transformation zwischen dem Marker und der optischen Aufnahmeeinheit in dem mindestens einen Einzelbild ermittelt, um die Position des Markers und die Orientierung des Marker zu bestimmen und bzw. oder zu überprüfen. Vorzugsweise erfolgt dies durch eine Homographie-Transformation, also eine Transformation zwischen zwei Ebenen, die bei der vorliegenden Erfindung typischerweise durch den flachen Marker und eine ebenfalls typischerweise flache Aufnahmeebene der optischen Aufnahmeeinheit, beispielsweise einen Kamerachip, gegeben sind.
- In einer Ausführungsform kann eine nicht-lineare Optimierung von der Auswerteeinheit beim Verarbeiten der Struktur durchgeführt werden, um Rückprojektionsfehler zu vermeiden.
- Eine Anordnung zur Lageerfassung eines zu untersuchenden Objekts, an dem ortsfest ein Marker mit einer optisch auslesbaren Struktur angeordnet ist, weist eine optische Aufnahmeeinheit und eine Auswerteeinheit auf. Die Anordnung ist dazu eingerichtet, das beschriebene Verfahren durchzuführen. Das zuvor beschriebene Verfahren kann dementsprechend dazu ausgelegt sein, auf der Anordnung ausgeführt zu werden.
- Typischerweise ist die Anordnung Teil einer Ausstattung eines Operationssaals, das Verfahren wird somit also auch in dem Operationssaal durchgeführt.
- Es kann vorgesehen sein, dass die optische Aufnahmeeinheit an einer Lichtquelle des Operationssaals angeordnet ist. Da die Lichtquelle meist ohnehin in dem Operationssaal vorhanden ist, kann die Anordnung platzsparend in dieses Gerät integriert werden. Typischerweise ist auch die Auswerteeinheit in diese Lichtquelle integriert.
- Alternativ oder zusätzlich kann die optische Aufnahmeeinheit als eine Stereokamera ausgebildet sein, um eine Genauigkeit und Robustheit der Markerdetektion zu erhöhen. Unter einer Stereokamera soll hierbei insbesondere eine Kamera mit zwei Linsen und zwei bildgebenden Elementen verstanden werden, die in einem einzigen Gehäuse angeordnet sind. Die optische Aufnahmeeinheit kann aber auch zwei einzelne Kameras in separaten Gehäusen oder mehr als zwei einzelne Kameras in einem Gehäuse oder jeweils in einzelnen Gehäusen aufweisen.
- Ein Computerprogrammprodukt weist eine auf einem maschinenlesbaren Träger, vorzugsweise einem digitalen Speichermedium, gespeicherte Befehlsfolge zum Durchführen des beschriebenen Verfahrens und bzw. oder zum Ansteuern der beschriebenen Anordnung auf, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit abläuft. Vorzugsweise kann das Computerprogrammprodukt direkt in einen internen Speicher der elektronischen Recheneinheit geladen werden oder ist in diesem bereits gespeichert und umfasst typischerweise Teile eines Programmcodes zum Durchführen des beschriebenen Verfahrens oder zum Ansteuern der beschriebenen Vorrichtung, wenn das Computerprogrammprodukt auf der elektronischen Recheneinheit abläuft bzw. ausgeführt wird. Das Computerprogrammprodukt kann auch ein Computerprogramm umfassen, das Softwaremittel zur Durchführung des beschriebenen Verfahrens und bzw. oder zum Ansteuern der beschriebenen Vorrichtung aufweist, wenn das Computerprogramm in einem Automatisierungssystem oder auf der Recheneinheit ausgeführt wird.
- Als elektronische Recheneinheit kann hierbei auch die Auswerteeinheit dienen.
- Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der
1 bis8 erläutert. - Es zeigen:
-
1 eine seitliche Ansicht eines Patienten und eines medizinischen Instruments, die jeweils mit einem Marker versehen sind, in einem Operationssaal; -
2 eine Draufsicht auf einen QR-Code als Markerstruktur; -
3 eine perspektivische Ansicht eine mit dem Marker versehenen Instruments und einer Aufnahmeeinheit; -
4 ein Ablaufdiagramm eines Verfahrens zur Lageerfassung; -
5 eine1 entsprechende Ansicht eines Markers mit einem Stereokamerasystem; -
6 ein weiteres Ablaufdiagramm eines Verfahrens zur Lageerfassung; -
7 eine perspektivische Ansicht eines Instruments mit einem gebogenen Marker und -
8 ein Ablaufdiagramm mit einer detaillierteren Darstellung der Markerlokalisation. - In
1 ist in einer seitlichen Ansicht ein Operationssaal gezeigt, in dem ein Patient1 auf einem OP-Tisch liegt und auf dem Patienten1 ein Marker3 mit einer Markerstruktur4 angeordnet ist. Die Markerstruktur4 enthält in Form eines durch schwarze und weiße Rechtecke und Quadrate gebildeten QR-Codes Informationen über den Patienten1 , beispielsweise Name oder anatomische Auffälligkeiten. Während einer Operation mit einem medizinischen Instrument2 kann über den Marker3 eine Position und Ausrichtung des Patienten1 überprüft werden. - An dem Instrument
2 ist hierzu ebenfalls ein weiterer Marker3 mit einer weiteren Markerstruktur4 ortsfest angeordnet. Die Markerstruktur4 ist ebenfalls ein QR-Code, der das Instrument2 bezeichnet und Angaben über dessen Abmessungen und bzw. oder einen Hersteller des Instruments2 enthält. Außerdem sind in der Markerstruktur4 Informationen über Abmessungen der Markerstruktur4 selbst bzw. deren Größe enthalten, also beispielsweise eine Größe von 4 cm auf 4 cm in durch den QR-Code codierter Form hinterlegt. In weiteren Ausführungsbeispielen kann statt eines QR-Codes auch ein Strichcode oder eine zweifarbige Struktur beliebiger geometrischer Formen, beispielsweise mit Kreisen, verwendet werden. Außerdem sind auch Kombinationen verschiedener Darstellungsformen der Markerstruktur4 möglich. - Oberhalb des Patienten
1 ist eine OP-Lampe6 als Lichtquelle angeordnet, an der eine Kamera5 befestigt ist, durch die mehrere Einzelbilder des Patienten1 und des Instrumentes2 mit den jeweiligen Markern3 aufgenommen werden. Diese Einzelbilder werden an eine ebenfalls an der OP-Lampe6 angebrachte Auswerteeinheit7 übermittelt, dort verarbeitet und ein Ergebnis der Verarbeitung auf einer in1 schematisch dargestellten Ausgabeeinheit20 , beispielsweise einem Display, einem Benutzer, wie einem Chirurgen in dem Operationssaal, ausgegeben. - Diese Anordnung dient einer Durchführung eines Verfahrens zur Instrumentennavigation, das mit Hilfe der in die OP-Lampe
6 oder OP-Leuchte integrierten Kamera5 als Aufnahmeeinheit und den codierten Markern3 als Instrumententracker bzw. Patiententracker navigierte chirurgische Eingriffe ermöglicht. Die über einem Operationsgebiet positionierte OP-Lampe6 mit der integrierten Kamera5 erfasst die codierten Marker3 mit ihren Markerstrukturen4 , die an einem oder mehreren medizinischen Instrumenten2 sowie am Patienten1 angebracht sind. - Aus einer Projektion der als Flächenmarker gestalteten Markerstrukturen
4 auf die Kamera5 kann eine Position und eine Orientierung der Markerstrukturen4 bzw. Markercodes algorithmisch berechnet werden, wodurch eine für die Navigation erforderliche Koordinatentransformation zwischen einem Koordinatensystem des Patienten1 und einem Koordinatensystem des Instruments2 bekannt ist. Die Lage der Marker3 wird hierbei durch deren Größe, Verzerrung und Form bestimmt. Die Markerstruktur4 mit den Markerinformationen kann in weiteren Ausführungsbeispielen auch verschlüsselt sein, beispielsweise durch einen Hash-Code. Aus der ermittelten Lage der Marker3 im Kamerabild und deren in den Aufnahmen ermittelten Abmessungen kann durch einen Vergleich mit den beispielsweise in der Markerstruktur4 hinterlegten bekannten Abmessungen algorithmisch eine Entfernung zwischen der Kamera5 und dem jeweils betrachteten Marker3 ermittelt werden. - Durch eine Integration in bereits in dem Operationssaal vorhandene Ausstattung ergibt sich eine Zeit- und Kastenersparnis und eine Verminderung einer ”Eine-of-Sight”-Problematik durch die Positionierung einer Messkamera über dem Operationsgebiet und einem intuitiven Freilassen eines Sichtfelds der Kamera
5 . Somit wird eine Instrumentennavigation ermöglicht, die eine Darstellung der Lage chirurgischer Instrumente2 in einem präoperativ aufgenommenen dreidimensionalen Datensatz, beispielsweise einem durch Computertomographie erhaltenen Volumendatensatz des Patienten1 , umfasst. Dazu müssen die Positionen der Instrumente2 und des Patienten1 bzw. des Operationsgebiets kontinuierlich messtechnisch bestimmt werden und zu dem bereits vorhandenen dreidimensionalen Datensatz in Beziehung gesetzt werden. - Als Beispiel für die Markerstruktur
4 ist einer der auf den in1 gezeigten Markern3 verwendete QR-Codes in2 in Draufsicht dargestellt. Wiederkehrende Merkmale sind in dieser Figur wie auch in den folgenden Figuren mit identischen Bezugszeichen versehen. Die dargestellte Codierung enthält Informationen über die Größe des in Draufsicht quadratischen Markers3 bzw. dessen Abmessungen sowie den Instrumententyp des Instruments2 , an dem der Marker3 befestigt ist. Der in2 dargestellte beispielhafte QR-Code stellt sich nach einem Auslesen als ”s50 Pointer” dar und bezeichnet durch ”s50” eine Kantenlänge von 50 mm, wodurch aufgrund der quadratischen Ausgestaltung sowohl Länge als auch Breite bekannt sind. Durch ”Pointer” wird das Werkzeug bezeichnet, an dem der Marker3 mit der dargestellten Markerstruktur4 befestigt ist. Gegebenenfalls kann der Marker3 bzw. die Markerstruktur4 als Codierung auch eine Transformation zur Instrumentenspitze aufweisen. Die Markerstrukturen4 und die Marker3 können sehr flexibel ausgebildet sein. Beispielsweise können Metallplättchen oder Kunststoffplättchen durch Lasergravieren oder Ätzen strukturiert werden, oder es können Aufkleber ausgedruckt und auf das Instrument2 aufgeklebt werden. - Videobilddaten der in der OP-Lampe
6 integrierten Kamera5 werden in dem im Folgenden noch näher beschriebenen Verfahren zur Navigation verwendet, wobei, wie in3 in einer perspektivischen Ansicht gezeigt, aus einer Abbildung des Flächenmarkers in einem Einzelbild der Videobilddaten die Position und die Orientierung des Markers3 im Raum bestimmt werden. Das von der Kamera5 aufgenommene Einzelbild21 ist in3 mit einem zugehörigen Koordinatensystem zwischen der Kamera5 und dem mit dem Marker3 und der Markerstruktur4 versehenen Instrument2 schematisch dargestellt. Die Markerstruktur4 erscheint in dem Einzelbild21 aufgrund einer Verkippung des Instruments2 und des Markers3 verzerrt. Da der Marker3 auch gut erfassbare Außenkanten als zusätzliche sogenannte ”feature points” zu den schwarz-weiß Übergängen der Markerstruktur4 aufweist, kann die Markerstruktur4 mit ihrer Verzerrung im Einzelbild21 klar erfasst werden und durch die Auswerteeinheit7 verarbeitet werden. Zudem kann auch ein Abstand zwischen dem Marker3 und der Kamera5 bestimmt werden. - Ein entsprechendes Ausführungsbeispiel eines Verfahrens ist in
4 in einem Ablaufdiagramm dargestellt. Ziel ist hierbei, die Position und Orientierung des Markers3 bzw. der Markerstruktur4 im Videodatenstrom aus den Einzelbildern21 zu rekonstruieren. Hierzu wird zunächst eine Kamerakalibrierung8 zur Bestimmung der internen Kameraparameter und Eliminierung optischer Verzerrungen durchgeführt. Nachfolgend erfolgt zur Bestimmung der Lagedaten eine Markerlokalisation9 , wodurch ein Bildausschnitt in dem Einzelbild21 bestimmt wird, in dem sich der Marker3 befindet. Eine anschließende Markererkennung10 liest die in der Markerstruktur4 enthaltenen Informationen aus, beispielsweise die Große oder die Transformation zur Instrumentenspitze. In der darauffolgenden Markerdetektion11 erfolgt eine präzise Erkennung der Markerstruktur4 und dadurch die Bestimmung von Punkt- und Linienkorrespondenzen als Basis für die Positions- und Orientierungsberechnung, der sogenannten ”Pose”. Diese Poseberechnung12 wird durch eine Homographie-Transformation auf die Position und die Orientierung des Markers3 rückgerechnet. Im letzten Schritt wird durch ein nicht-lineare Optimierung13 ein Rückprojektionsfehler minimiert und hierdurch die optimale Pose bestimmt Außerdem kann als Optimierungsschritt mittels z. B. eines Kalman-Filters das dargestellte Verfahren stabilisiert und hierdurch Ausreißer eliminiert werden. -
5 zeigt in einer1 entsprechenden Ansicht den auf dem Patienten1 befestigten Marker3 mit Markerstruktur4 , der nun jedoch durch ein Stereokamerasystem aus den OP-Lampen6 und14 mit jeweils daran angeordneten Kameras5 und einer gemeinsamen Auswerteeinheit7 erfasst wird. Statt zweier OP-Lampen6 und14 kann in weiteren Ausführungsbeispielen auch ein einteiliges Gerät mit zwei darin enthaltenen Kameras5 verwendet werden. Es ist aber natürlich auch möglich, mehr als zwei Kameras zu verwenden, die in jeweils einzelnen Gehäusen oder in einem einzigen Gehäuse angeordnet sind. - Die Markernavigation kann mit beliebig vielen Kameras
5 umgesetzt werden. Bei einer Nutzung von mehr als einer Kamera5 erhöht sich eine Genauigkeit und Robustheit der Instrumentennavigation erheblich. Weiterhin erhöht sich die Wahrscheinlichkeit, dass immer zumindest eine der Kameras5 ein freies Sichtfeld auf die Markerstrukturen4 als Markerlokalisatoren hat. Da Operationssäle zunehmend mit Kameras5 für Schulungs-, Visualisierungs- und Dokumentationszwecke ausgerüstet sind, können diese Kameras5 auch für Navigationszwecke genutzt werden. - Ein entsprechendes Verfahrensablaufdiagramm beim Benutzen zweier Kameras
5 ist in6 in einer4 entsprechenden Ansicht gezeigt. Startend mit der Kalibrierung15 der ersten Kamera5 und der Kalibrierung16 der zweiten Kamera5 erfolgt die Markerdetektion11 und die Berechnung der Position und Orientierung der Marker3 , also die Poseberechnung12 , für jede der Kameras5 individuell durch die gemeinsame Auswerteeinheit7 . Aus der Transformation, also Translation und Rotation, der Marker3 zu jeder der Kameras5 kann wiederum durch eine Transformationsberechnung17 die Transformation der beiden Kameras5 zueinander berechnet werden. Hierdurch kann durch eine Stereotriangulation18 die Markerlage bestimmt werden und ein Genauigkeitscheck19 sowie eine Optimierung13 der berechneten Lage aus den individuellen Berechnungen, also der Lagebestimmung12 der ersten Kamera5 und der zweiten Kamera5 sowie der Lagebestimmung durch Triangulation18 , durchgeführt werden. - Die Auswerteeinheit
7 ist typischerweise eine elektronische Recheneinheit, beispielsweise ein Computer, auf der ein Computerprogramm abläuft, das das beschriebene Verfahren durchführt und bzw. oder die beschriebene Anordnung ansteuert. Ein Computerprogrammprodukt liegt in Form einer auf einem maschinenlesbaren Träger wie einer Festplatte oder einer Compact Disc gespeicherten Befehlsfolge (oder Teile eines Programmcodes) vor, die das Verfahren wie beschrieben durchführt bzw. die Anordnung ansteuert, wenn das Computerprogramm auf der elektronischen Recheneinheit abläuft. -
7 zeigt eine weitere Ausführungsform des Markers3 in einer perspektivischen Ansicht. Auf dem Instrument2 ist der als Flchenmarker ausgeführte Marker3 nun dreidimensional ausgeprägt, um seine Sichtbarkeit aus verschiedenen Richtungen zu gewährleisten. Hierzu ist der Marker3 aus mehreren gegeneinander verkippten Plättchen aufgebaut, auf denen jeweils die Markerstruktur4 angeordnet ist. In weiteren Ausführungsbeispielen kann auch auf jedem der Plättchen lediglich ein Teil der Markerstruktur4 angeordnet sein. Der Marker3 ist somit um das Instrument2 gebogen. Dies erlaubt es, eine Genauigkeitssteigerung des beschriebenen Verfahrens zur Lageerfassung zu erreichen, da nun zwei oder mehr Flächen zur Lagebestimmung verwendet werden. -
8 zeigt ein detailliertes Ausführungsbeispiel des Verfahrens. Startend mit einer Videobildaufnahme22 durch die Kamera5 , die Eingabedaten für das Verfahren erzeugt, wird zunächst ein Einzelbild21 erhalten, in dem der Marker3 neben einer Nichtmarkerumgebung23 abgebildet ist. - Nachfolgend erfolgt bei dem dargestellten Ausführungsbeispiel eine grobe Markerlokalisation
9 , bei der ein Bildausschnitt24 um den Marker3 ermittelt wird anhand Grobstrukturen25 oder Markierungen des Markers3 als sogenannte ”finder pattern”. Der vergrößerte Bildausschnitt24 mit dem Marker3 wird nachfolgend weiterverarbeitet, indem ein Auslesen26 der codierten Markerinformationen aus der Markerstruktur4 und eine feinere Markerlokalisation27 in dem erfassten Bildausschnitt24 durchgeführt, bei der die ausgelesenen Markerinformationen bereits benutzt werden und außerdem eine Linienzuordnung28 von nun ermittelten Feinstrukturen und eine Detektion bzw. Lokalisierung der Feinstrukturen erfolgt. Im Ergebnis kann somit im letzten Schritt29 eine Ausgabe von genaueren Lagedaten zwischen dem Marker3 und der Kamera5 erfolgen. - Der dargestellte QR-Code ergibt ausgelesen ”id = 1001 size = 54 mm Fraunhofer” und bezeichnet eine Identifikationsnummer des Instruments, an dem der Marker
3 befestigt ist, bzw. eine Identifikationsnummer des Markers selbst sowie eine Angabe der Kantenlänge und eine Angabe des Herstellers des Instruments, an dem der Marker3 mit der abgebildeten Markerstruktur4 befestigt ist. - Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.
Claims (10)
- Verfahren zur Lageerfassung eines zu untersuchenden Objekts (
1 ,2 ), an dem ortsfest ein Marker (3 ) mit einer optisch auslesbaren Struktur (4 ) angeordnet ist, die zumindest Abmessungen und/oder eine Größe des Markers (3 ) codiert kennzeichnet, mit den Schritten: a) Optisches Aufnehmen (8 ) mindestens eines Einzelbilds (21 ) des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit (5 ) und Übermitteln des mindestens einen Einzelbilds (21 ) an eine Auswerteeinheit (7 ); b) Durchführen einer Markerlokatisation (9 ) in dem mindestens einen Einzelbild (21 ) durch die Auswerteeinheit (7 ); c) Festlegen eines Bildausschnitts (10 ) in dem mindestens einen Einzelbild (21 ), in dem sich der Marker befindet, durch die Auswerteeinheit (7 ); d) Durchführen einer Markerdetektion (11 ), bei der die an dem oder auf dem Marker (3 ) angeordnete Struktur (4 ) erfasst wird, durch die Auswerteeinheit (7 ); e) Verarbeiten der bei der Markerdetektion (12 ) erfassten Struktur (4 ), wobei zumindest eine Position und/oder eine Orientierung des Markers (3 ) in Bezug zu der optischen Aufnahmeeinheit (5 ) aus den durch die Struktur (4 ) codierten Abmessungen oder der Größe des erfassten Markers (3 ) und der erfassten Struktur (4 ) in dem mindestens einen Einzelbild (21 ) durch die Auswerteeinheit ermittelt und in der Auswerteeinheit (7 ) gespeichert werden und/oder auf einer Ausgabeeinheit (20 ) dargestellt werden. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch die Struktur (
4 ) des Markers (3 ) eine Größe, eine Bezeichnung und/oder eine Form des zu untersuchenden Objekts (1 ,2 ) gekennzeichnet werden. - Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass von der Auswerteeinheit (
7 ) der Abstand zwischen dem Marker (3 ) und der optischen Aufnahmeeinheit (5 ) bestimmt wird. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Struktur (
4 ) des Markers (3 ) durch einen Strichcode, einen QR-Code, mindestens eine Kante und/oder kreisförmige Strukturen mit mindestens zwei Farben gebildet werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von der Auswerteeinheit (
7 ) beim Verarbeiten der Strukturen eine Transformation zwischen dem Marker (3 ) und der optischen Aufnahmeeinheit (5 ) in dem mindestens einen Einzelbild (21 ) ermittelt wird, um die Position des Markers (3 ) und die Orientierung des Markers (3 ) zu bestimmen und/oder zu überprüfen. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine nicht-lineare Optimierung von der Auswerteeinheit (
7 ) beim Verarbeiten der Struktur (4 ) durchgeführt wird, um Rückprojektionsfehler zu minimieren. - Anordnung zur Lageerfassung eines zu untersuchenden Objekts (
1 ,2 ), an dem ortsfest ein Marker (3 ) mit einer optisch auslesbaren Struktur angeordnet ist, mit einer optischen Aufnahmeeinheit (5 ) und einer Auswerteeinheit (7 ), wobei die Anordnung eingerichtet ist, ein Verfahren nach einem der Ansprüche 1–6 durchzuführen. - Anordnung nach Anspruch 7, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (
5 ) an einer Lichtquelle (6 ) eines Operationssaals angeordnet ist. - Anordnung nach Anspruch 7 oder Anspruch 8, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (
5 ) als eine Stereokamera oder als mehr als zwei einzelne Kameras ausgebildet ist. - Computerprogrammprodukt, aufweisend eine auf einem maschinenlesbaren Träger gespeicherte Befehlsfolge zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 6 und/oder zum Ansteuern der Anordnung nach einem der Ansprüche 7 bis 9, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit abläuft.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015212352.9A DE102015212352A1 (de) | 2015-07-01 | 2015-07-01 | Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015212352.9A DE102015212352A1 (de) | 2015-07-01 | 2015-07-01 | Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015212352A1 true DE102015212352A1 (de) | 2017-01-05 |
Family
ID=57582918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015212352.9A Withdrawn DE102015212352A1 (de) | 2015-07-01 | 2015-07-01 | Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015212352A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018007091A1 (de) | 2016-07-06 | 2018-01-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur bildgebung in einem operationssaal |
DE102018208203A1 (de) * | 2018-05-24 | 2019-11-28 | Carl Zeiss Industrielle Messtechnik Gmbh | Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers |
DE102018010361B4 (de) * | 2018-05-24 | 2021-06-17 | Carl Zeiss Industrielle Messtechnik Gmbh | Targetkörper mit einer Mehrzahl von Markern, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers |
DE102020126029A1 (de) | 2020-10-05 | 2022-04-07 | B. Braun New Ventures GmbH | Chirurgisches Assistenzsystem und Darstellungsverfahren |
DE102020134898A1 (de) | 2020-12-23 | 2022-06-23 | Sensopart Industriesensorik Gmbh | Zielmarke zur Bestimmung einer dreidimensionalen Pose eines Objekts |
WO2022182549A1 (en) * | 2021-02-26 | 2022-09-01 | Surgical Planning Associates Inc. | Systems and methods for registering and tracking anatomical structures |
US11504855B2 (en) | 2017-06-20 | 2022-11-22 | Carl Zeiss Smt Gmbh | System, method and marker for the determination of the position of a movable object in space |
US11571225B2 (en) | 2020-08-17 | 2023-02-07 | Russell Todd Nevins | System and method for location determination using movement between optical labels and a 3D spatial mapping camera |
US11600053B1 (en) | 2021-10-04 | 2023-03-07 | Russell Todd Nevins | System and method for location determination using a mixed reality device and multiple imaging cameras |
DE102021213358A1 (de) | 2021-11-26 | 2023-06-01 | Physik Instrumente (PI) GmbH & Co KG | Posenbestimmung bei Parallelkinematiken mit Referenzmarkern |
US11806081B2 (en) | 2021-04-02 | 2023-11-07 | Russell Todd Nevins | System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015003727A1 (en) * | 2013-07-08 | 2015-01-15 | Brainlab Ag | Single-marker navigation |
-
2015
- 2015-07-01 DE DE102015212352.9A patent/DE102015212352A1/de not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015003727A1 (en) * | 2013-07-08 | 2015-01-15 | Brainlab Ag | Single-marker navigation |
Non-Patent Citations (1)
Title |
---|
Wikipedia QR-Code * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018007091A1 (de) | 2016-07-06 | 2018-01-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur bildgebung in einem operationssaal |
US11504855B2 (en) | 2017-06-20 | 2022-11-22 | Carl Zeiss Smt Gmbh | System, method and marker for the determination of the position of a movable object in space |
DE102018208203A1 (de) * | 2018-05-24 | 2019-11-28 | Carl Zeiss Industrielle Messtechnik Gmbh | Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers |
DE102018208203B4 (de) * | 2018-05-24 | 2020-02-13 | Carl Zeiss Industrielle Messtechnik Gmbh | Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers |
US10748300B2 (en) | 2018-05-24 | 2020-08-18 | Carl Zeiss Industrielle Messtechnik Gmbh | Target body, arrangement including a target body, and method for determining a position and/or an alignment of a target body |
DE102018010361B4 (de) * | 2018-05-24 | 2021-06-17 | Carl Zeiss Industrielle Messtechnik Gmbh | Targetkörper mit einer Mehrzahl von Markern, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers |
US11571225B2 (en) | 2020-08-17 | 2023-02-07 | Russell Todd Nevins | System and method for location determination using movement between optical labels and a 3D spatial mapping camera |
DE102020126029A1 (de) | 2020-10-05 | 2022-04-07 | B. Braun New Ventures GmbH | Chirurgisches Assistenzsystem und Darstellungsverfahren |
DE102020134898A1 (de) | 2020-12-23 | 2022-06-23 | Sensopart Industriesensorik Gmbh | Zielmarke zur Bestimmung einer dreidimensionalen Pose eines Objekts |
WO2022182549A1 (en) * | 2021-02-26 | 2022-09-01 | Surgical Planning Associates Inc. | Systems and methods for registering and tracking anatomical structures |
US11806081B2 (en) | 2021-04-02 | 2023-11-07 | Russell Todd Nevins | System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera |
US11871997B2 (en) | 2021-04-02 | 2024-01-16 | Russell Todd Nevins | System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera |
US11600053B1 (en) | 2021-10-04 | 2023-03-07 | Russell Todd Nevins | System and method for location determination using a mixed reality device and multiple imaging cameras |
US11610378B1 (en) | 2021-10-04 | 2023-03-21 | Russell Todd Nevins | System and method for location determination using a mixed reality device and multiple imaging cameras |
DE102021213358A1 (de) | 2021-11-26 | 2023-06-01 | Physik Instrumente (PI) GmbH & Co KG | Posenbestimmung bei Parallelkinematiken mit Referenzmarkern |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015212352A1 (de) | Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts | |
EP3330922B1 (de) | Verfahren und vorrichtung zum darstellen eines objektes | |
EP1900336B1 (de) | Vorrichtung und Verfahren zum Messen geometrischer Eigenschaften medizintechnischer Behandlungsvorrichtungen, insbesondere zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computerassistierte Chirurgie | |
DE10137241A1 (de) | Registrierung von Tiefenbildern mittels optisch projizierter Marken | |
EP1719472B1 (de) | Vorrichtungen und Verfahren zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computer-assistierte Chirurgie | |
DE102006005036A1 (de) | Vorrichtung und Verfahren zur verbesserten Formcharakterisierung | |
WO2003105709A1 (de) | Verfahren und instrument zur chirurgischen navigation | |
DE102012220115A1 (de) | Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung | |
DE19807884C2 (de) | Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens | |
DE102011114333A1 (de) | Verfahren zur Registrierung eines Röntgenvolumens mit einem Lageerfassungssystem unter Verwendung eines Registrierphantoms | |
DE102014102425B4 (de) | Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker | |
EP3290861A1 (de) | Sensoranlage mit einer optischen sensoreinheit und eine automatisierungsanlage | |
DE102018119691A1 (de) | Kamerasystem zur Erfassung von Kodierungen | |
DE102017113615A1 (de) | System, Verfahren und Marker zur Positionsbestimmung eines beweglichen Objektes im Raum | |
DE102007030378A1 (de) | System zur Bestimmung der Lage eines Kamerasystems | |
DE102015013551B4 (de) | System und Verfahren zur Positions-und Lagebestimmung von Objekten | |
EP1657678B1 (de) | Videobildunterstützte Patientenregistrierung | |
EP1813911A1 (de) | Positionsbestimmungssystem | |
DE102014110570A1 (de) | Bilderzeugungsapparat und -verfahren mit Kombination von funktionaler Bildgebung und Ultraschallbildgebung | |
EP1667067B1 (de) | Verfahren und Vorrichtung zum Kalibrieren eines medizinischen Instrumentes | |
EP1681028B1 (de) | Video-tracking und -Registrierung | |
DE102009019019A1 (de) | Video-basiertes Mono-Kamera-Navigationssystem | |
DE102017122627B4 (de) | Optisches Messsystem und Messverfahren | |
DE102018208604A1 (de) | Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit | |
DE102019209117A1 (de) | Verfahren zur Lokalisierung eines Fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0019000000 Ipc: A61B0034200000 |
|
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |