DE102015212352A1 - Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts - Google Patents

Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts Download PDF

Info

Publication number
DE102015212352A1
DE102015212352A1 DE102015212352.9A DE102015212352A DE102015212352A1 DE 102015212352 A1 DE102015212352 A1 DE 102015212352A1 DE 102015212352 A DE102015212352 A DE 102015212352A DE 102015212352 A1 DE102015212352 A1 DE 102015212352A1
Authority
DE
Germany
Prior art keywords
marker
evaluation unit
unit
optical recording
examined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015212352.9A
Other languages
English (en)
Inventor
Sebastian Engel
Manuel Katanacho
Erwin Keeve
Eckart Uhlmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102015212352.9A priority Critical patent/DE102015212352A1/de
Publication of DE102015212352A1 publication Critical patent/DE102015212352A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1456Methods for optical code recognition including a method step for retrieval of the optical code determining the orientation of the optical code with respect to the reader and correcting therefore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Toxicology (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren, eine Anordnung und eine Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur (4) angeordnet ist, die zumindest Abmessungen und/oder eine Größe des Markers (3) codiert kennzeichnet. Hierzu erfolgt ein optisches Aufnehmen (8) mindestens eines Einzelbilds (21) des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit (5) und Übermitteln des mindestens einen Einzelbilds (21) an eine Auswerteeinheit (7), ein Durchführen einer Markerlokalisation (9) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7), ein Festlegen eines Bildausschnitts (10) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7), in dem sich der Marker befindet, ein Durchführen einer Markerdetektion (11) durch die Auswerteeinheit (7), bei der die an dem oder auf dem Marker (3) angeordnete Struktur (4) erfasst wird, und ein Verarbeiten der bei der Markerdetektion (12) erfassten Struktur (4), wobei zumindest eine Position und bzw. oder eine Orientierung des Markers (3) in Bezug zu der optischen Aufnahmeeinheit (5) aus den durch die Struktur (4) codierten Abmessungen oder der Größe des erfassten Markers (3) und der erfassten Struktur (4) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit ermittelt und in der Auswerteeinheit (7) gespeichert werden und/oder auf einer Ausgabeeinheit (20) dargestellt werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren, eine Anordnung und ein Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts.
  • Zum Bestimmen einer Patientenlage und einer Instrumentenlage in einem Operationssaal oder zum Bestimmen einer Werkzeuglage in einer Werkhalle gibt es zwei verschiedene Messprinzipien: Optisches Tracking und elektromagnetisches Tracking. Beim optischen Tracking wird ein externes Stereokameramesssystem verwendet, das eine Anordnung von Reflektorkugeln vermisst und daraus eine Lage der Instrumente bzw. des Patienten bestimmt. Nachteilig an dieser Variante ist, dass nur ein eingeschränkter Patientenzugang des medizinischen Personals im Operationssaal möglich ist, um eine Kamerasichtlinie nicht zu kreuzen und somit die Aufnahme zu stören (sogenannte Line-of-Sight-Problematik). Außerdem fallen hohe Investitionskosten bei einer Anschaffung eines derartigen Systems an und laufende Kosten für die erforderlichen Einweg-Reflektorkugeln müssen berücksichtigt werden. Überdies ist jedem Instrument in dem Operationssaal eine einzigartige Anordnung von Reflektorkugeln zugeordnet, die eingemessen und spezifiziert werden müssen.
  • Das elektromagnetische Instrumententracking nutzt ein mit einem Feldgenerator erzeugtes Magnetfeld zur Messung einer Lage einer Sensorspule am Instrument bzw. in einem Operationsgebiet. Diese Spule ermöglicht es, Aufschluss über die Position und Orientierung des Instruments zu erhalten. Wesentlicher Nachteil dieses Verfahrens ist eine hohe Ungenauigkeit und Störempfindlichkeit gegenüber elektrisch leitfähigen oder ferromagnetischen Materialien.
  • Der vorliegenden Erfindung liegt damit die Aufgabe zugrunde, ein Verfahren und eine Anordnung zu entwickeln, die die genannten Nachteile vermeiden, mit denen also mit hoher Genauigkeit und Zuverlässigkeit eine Lage eines zu untersuchenden Objekts bestimmt werden kann.
  • Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1, eine Anordnung nach Anspruch 7 und ein Computerprogrammprodukt nach Anspruch 10. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.
  • Ein Verfahren zur Lageerfassung eines zu untersuchenden Objekts, an dem ortsfest ein Marker mit einer optisch auslesbaren Struktur angeordnet ist, die zumindest Abmessungen und bzw. oder eine Größe des Markers codiert kennzeichnet, umfasst mehrere Schritte. In einem der Schritte erfolgt ein optisches Aufnehmen mindestens eines Einzelbilds des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit und ein Übermitteln des mindestens einen Einzelbilds an eine Auswerteeinheit. Nachfolgend wird in dem mindestens einen Einzelbild eine Markerlokalisation durchgeführt. In einem weiteren Schritt wird durch die Auswerteeinheit ein Bildausschnitt in dem mindestens einen Einzelbild festgelegt, in dem sich der Marker befindet. Es wird eine Markerdetektion durch die Auswerteeinheit durchgeführt, bei der die an dem oder auf dem Marker angeordnete Struktur erfasst wird. Schließlich wird die bei der Markerdetektion erfasste Struktur verarbeitet, wobei zumindest eine Position und bzw. oder eine Orientierung des Markers in Bezug zu der optischen Aufnahmeeinheit aus den Abmessungen oder der Größe des erfassten Markers und bzw. oder der erfassten Struktur in dem mindestens einen Einzelbild durch die Auswerteeinheit ermittelt und in der Auswerteeinheit gespeichert werden und bzw. oder auf einer Ausgabeeinheit dargestellt werden. Die Abmessungen und bzw. oder die Größe des erfassten Markers bzw. der erfassten Struktur sind hierbei durch die optisch auslesbare Struktur codiert, d. h. insbesondere in der Struktur durch Zeichen enthalten.
  • Dadurch, dass der Marker ortsfest an dem zu untersuchenden Objekt angebracht ist und mit der optisch auslesbaren Struktur versehen ist, können Informationen in der optisch auslesbaren Struktur codiert sein, die das zu untersuchende Objekt näher beschreiben und zu einer Lageerfassung herangezogen werden können. Durch die ortsfeste Befestigung kann aus einer Lageänderung des Markers auch auf eine Lageänderung des zu untersuchenden Objekts geschlossen werden. Dies ist umso einfacher möglich, da die Abmessungen bzw. die Größe des Markers durch die Struktur des Markers nach der Aufnahme bereits bekannt sind und im Rahmen des Verarbeitens der bei der Markerdetektion erfassten Struktur auch mit einer bei der Markerdetektion bestimmten Größe in Beziehung gesetzt werden kann. Da eine optische Aufnahmetechnik Anwendung findet, ist mit hinreichend hoher Genauigkeit durch die bereits bekannte Größe des Markers von der Aufnahmeeinheit zuverlässig die Position und die Orientierung berechenbar. Die Markerlokalisation dient hierbei zunächst dem Erfassen des Markers in dem jeweiligen Einzelbild, wohingegen bei der Markerdetektion die gewünschten Informationen erfasst werden. Während die Markerlokalisation somit vergleichsweise geringe Genauigkeitsanforderungen hat, soll der Marker erst bei der Markerdetektion mit erhöhter Genauigkeit bestimmbar sein. Durch das Ausgeben der durch das Verfahren erlangten Informationen über das zu untersuchende Objekt auf der Ausgabeeinheit kann auch ein Benutzer diese Informationen wahrnehmen. Die genannten Schritte müssen nicht alle in der angegebenen Reihenfolge durchgeführt werden, insbesondere kann bereits vor dem Durchführen der Markerdetektion aus der Größe des Markers eine Positionsbestimmung bzw. Orientierungsbestimmung durchgeführt werden.
  • Vorzugsweise ist durch die Struktur des Markers eine Größe, eine Bezeichnung, ein Typ und bzw. oder eine Form des zu untersuchenden Objekts gekennzeichnet. Diese Informationen dienen einer genaueren Erfassung des jeweiligen Objekts, insbesondere falls mehrere zu untersuchende Objekte mit jeweils daran angeordneten Markern verwendet werden. Es kann aber auch eine Transformation von einem Schwerpunkt des Markers oder des zu untersuchenden Objekts zu einem vorab festgelegten Punkt in der Struktur des Markers codiert sein. Auch bislang unbekannte zu untersuchende Objekte, beispielsweise bislang nicht verwendete Instrumente können so schnell mit ihren Eigenschaften erfasst und verwendet werden. Das Verfahren kann somit schneller und zuverlässiger als vergleichbare Verfahren zur Lageerfassung durchgeführt werden.
  • Es kann vorgesehen sein, dass von der Auswerteeinheit der Abstand zwischen dem Marker und der optischen Aufnahmeeinheit bestimmt wird, um zusätzliche Informationen über die Anordnung des Markers in einem von der optischen Aufnahmeeinheit erfassten Raumbereich zu erhalten.
  • Typischerweise ist die Struktur des Markers durch einen Strichcode, einen QR-Code (Quick Response-Code), mindestens eine Kante und bzw. oder kreisförmige Strukturen mit mindestens zwei Farben gebildet. Die genannten Strukturen sind optisch einfach und eindeutig zu erfassen und bieten auf relativ kleinem Raum eine verhältnismäßig große Informationsdichte. Alternativ oder zusätzlich kann die Struktur des Markers die Informationen auch in beliebiger verschlüsselter Form enthalten, so dass die Auswerteeinheit nur bei bekanntem, in der Aufnahmeeinheit hinterlegten Schlüssel zum Entschlüsseln auf die Informationen zugreifen kann.
  • In einer Ausführungsform wird vor dem optischen Aufnehmen des mindestens einen Einzelbilds eine Kalibrierung der Aufnahmeeinheit durchgeführt, um eine ordnungsgemäße Funktionsweise der Aufnahmeeinheit zu gewährleisten.
  • Es kann auch vorgesehen sein, mehrere Einzelbilder zeitlich nacheinander aufzunehmen und in jedem der Einzelbilder den Marker und die Struktur wie beschrieben zu erfassen.
  • Typischerweise wird von der Auswerteeinheit beim Verarbeiten der Strukturen eine Transformation zwischen dem Marker und der optischen Aufnahmeeinheit in dem mindestens einen Einzelbild ermittelt, um die Position des Markers und die Orientierung des Marker zu bestimmen und bzw. oder zu überprüfen. Vorzugsweise erfolgt dies durch eine Homographie-Transformation, also eine Transformation zwischen zwei Ebenen, die bei der vorliegenden Erfindung typischerweise durch den flachen Marker und eine ebenfalls typischerweise flache Aufnahmeebene der optischen Aufnahmeeinheit, beispielsweise einen Kamerachip, gegeben sind.
  • In einer Ausführungsform kann eine nicht-lineare Optimierung von der Auswerteeinheit beim Verarbeiten der Struktur durchgeführt werden, um Rückprojektionsfehler zu vermeiden.
  • Eine Anordnung zur Lageerfassung eines zu untersuchenden Objekts, an dem ortsfest ein Marker mit einer optisch auslesbaren Struktur angeordnet ist, weist eine optische Aufnahmeeinheit und eine Auswerteeinheit auf. Die Anordnung ist dazu eingerichtet, das beschriebene Verfahren durchzuführen. Das zuvor beschriebene Verfahren kann dementsprechend dazu ausgelegt sein, auf der Anordnung ausgeführt zu werden.
  • Typischerweise ist die Anordnung Teil einer Ausstattung eines Operationssaals, das Verfahren wird somit also auch in dem Operationssaal durchgeführt.
  • Es kann vorgesehen sein, dass die optische Aufnahmeeinheit an einer Lichtquelle des Operationssaals angeordnet ist. Da die Lichtquelle meist ohnehin in dem Operationssaal vorhanden ist, kann die Anordnung platzsparend in dieses Gerät integriert werden. Typischerweise ist auch die Auswerteeinheit in diese Lichtquelle integriert.
  • Alternativ oder zusätzlich kann die optische Aufnahmeeinheit als eine Stereokamera ausgebildet sein, um eine Genauigkeit und Robustheit der Markerdetektion zu erhöhen. Unter einer Stereokamera soll hierbei insbesondere eine Kamera mit zwei Linsen und zwei bildgebenden Elementen verstanden werden, die in einem einzigen Gehäuse angeordnet sind. Die optische Aufnahmeeinheit kann aber auch zwei einzelne Kameras in separaten Gehäusen oder mehr als zwei einzelne Kameras in einem Gehäuse oder jeweils in einzelnen Gehäusen aufweisen.
  • Ein Computerprogrammprodukt weist eine auf einem maschinenlesbaren Träger, vorzugsweise einem digitalen Speichermedium, gespeicherte Befehlsfolge zum Durchführen des beschriebenen Verfahrens und bzw. oder zum Ansteuern der beschriebenen Anordnung auf, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit abläuft. Vorzugsweise kann das Computerprogrammprodukt direkt in einen internen Speicher der elektronischen Recheneinheit geladen werden oder ist in diesem bereits gespeichert und umfasst typischerweise Teile eines Programmcodes zum Durchführen des beschriebenen Verfahrens oder zum Ansteuern der beschriebenen Vorrichtung, wenn das Computerprogrammprodukt auf der elektronischen Recheneinheit abläuft bzw. ausgeführt wird. Das Computerprogrammprodukt kann auch ein Computerprogramm umfassen, das Softwaremittel zur Durchführung des beschriebenen Verfahrens und bzw. oder zum Ansteuern der beschriebenen Vorrichtung aufweist, wenn das Computerprogramm in einem Automatisierungssystem oder auf der Recheneinheit ausgeführt wird.
  • Als elektronische Recheneinheit kann hierbei auch die Auswerteeinheit dienen.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der 1 bis 8 erläutert.
  • Es zeigen:
  • 1 eine seitliche Ansicht eines Patienten und eines medizinischen Instruments, die jeweils mit einem Marker versehen sind, in einem Operationssaal;
  • 2 eine Draufsicht auf einen QR-Code als Markerstruktur;
  • 3 eine perspektivische Ansicht eine mit dem Marker versehenen Instruments und einer Aufnahmeeinheit;
  • 4 ein Ablaufdiagramm eines Verfahrens zur Lageerfassung;
  • 5 eine 1 entsprechende Ansicht eines Markers mit einem Stereokamerasystem;
  • 6 ein weiteres Ablaufdiagramm eines Verfahrens zur Lageerfassung;
  • 7 eine perspektivische Ansicht eines Instruments mit einem gebogenen Marker und
  • 8 ein Ablaufdiagramm mit einer detaillierteren Darstellung der Markerlokalisation.
  • In 1 ist in einer seitlichen Ansicht ein Operationssaal gezeigt, in dem ein Patient 1 auf einem OP-Tisch liegt und auf dem Patienten 1 ein Marker 3 mit einer Markerstruktur 4 angeordnet ist. Die Markerstruktur 4 enthält in Form eines durch schwarze und weiße Rechtecke und Quadrate gebildeten QR-Codes Informationen über den Patienten 1, beispielsweise Name oder anatomische Auffälligkeiten. Während einer Operation mit einem medizinischen Instrument 2 kann über den Marker 3 eine Position und Ausrichtung des Patienten 1 überprüft werden.
  • An dem Instrument 2 ist hierzu ebenfalls ein weiterer Marker 3 mit einer weiteren Markerstruktur 4 ortsfest angeordnet. Die Markerstruktur 4 ist ebenfalls ein QR-Code, der das Instrument 2 bezeichnet und Angaben über dessen Abmessungen und bzw. oder einen Hersteller des Instruments 2 enthält. Außerdem sind in der Markerstruktur 4 Informationen über Abmessungen der Markerstruktur 4 selbst bzw. deren Größe enthalten, also beispielsweise eine Größe von 4 cm auf 4 cm in durch den QR-Code codierter Form hinterlegt. In weiteren Ausführungsbeispielen kann statt eines QR-Codes auch ein Strichcode oder eine zweifarbige Struktur beliebiger geometrischer Formen, beispielsweise mit Kreisen, verwendet werden. Außerdem sind auch Kombinationen verschiedener Darstellungsformen der Markerstruktur 4 möglich.
  • Oberhalb des Patienten 1 ist eine OP-Lampe 6 als Lichtquelle angeordnet, an der eine Kamera 5 befestigt ist, durch die mehrere Einzelbilder des Patienten 1 und des Instrumentes 2 mit den jeweiligen Markern 3 aufgenommen werden. Diese Einzelbilder werden an eine ebenfalls an der OP-Lampe 6 angebrachte Auswerteeinheit 7 übermittelt, dort verarbeitet und ein Ergebnis der Verarbeitung auf einer in 1 schematisch dargestellten Ausgabeeinheit 20, beispielsweise einem Display, einem Benutzer, wie einem Chirurgen in dem Operationssaal, ausgegeben.
  • Diese Anordnung dient einer Durchführung eines Verfahrens zur Instrumentennavigation, das mit Hilfe der in die OP-Lampe 6 oder OP-Leuchte integrierten Kamera 5 als Aufnahmeeinheit und den codierten Markern 3 als Instrumententracker bzw. Patiententracker navigierte chirurgische Eingriffe ermöglicht. Die über einem Operationsgebiet positionierte OP-Lampe 6 mit der integrierten Kamera 5 erfasst die codierten Marker 3 mit ihren Markerstrukturen 4, die an einem oder mehreren medizinischen Instrumenten 2 sowie am Patienten 1 angebracht sind.
  • Aus einer Projektion der als Flächenmarker gestalteten Markerstrukturen 4 auf die Kamera 5 kann eine Position und eine Orientierung der Markerstrukturen 4 bzw. Markercodes algorithmisch berechnet werden, wodurch eine für die Navigation erforderliche Koordinatentransformation zwischen einem Koordinatensystem des Patienten 1 und einem Koordinatensystem des Instruments 2 bekannt ist. Die Lage der Marker 3 wird hierbei durch deren Größe, Verzerrung und Form bestimmt. Die Markerstruktur 4 mit den Markerinformationen kann in weiteren Ausführungsbeispielen auch verschlüsselt sein, beispielsweise durch einen Hash-Code. Aus der ermittelten Lage der Marker 3 im Kamerabild und deren in den Aufnahmen ermittelten Abmessungen kann durch einen Vergleich mit den beispielsweise in der Markerstruktur 4 hinterlegten bekannten Abmessungen algorithmisch eine Entfernung zwischen der Kamera 5 und dem jeweils betrachteten Marker 3 ermittelt werden.
  • Durch eine Integration in bereits in dem Operationssaal vorhandene Ausstattung ergibt sich eine Zeit- und Kastenersparnis und eine Verminderung einer ”Eine-of-Sight”-Problematik durch die Positionierung einer Messkamera über dem Operationsgebiet und einem intuitiven Freilassen eines Sichtfelds der Kamera 5. Somit wird eine Instrumentennavigation ermöglicht, die eine Darstellung der Lage chirurgischer Instrumente 2 in einem präoperativ aufgenommenen dreidimensionalen Datensatz, beispielsweise einem durch Computertomographie erhaltenen Volumendatensatz des Patienten 1, umfasst. Dazu müssen die Positionen der Instrumente 2 und des Patienten 1 bzw. des Operationsgebiets kontinuierlich messtechnisch bestimmt werden und zu dem bereits vorhandenen dreidimensionalen Datensatz in Beziehung gesetzt werden.
  • Als Beispiel für die Markerstruktur 4 ist einer der auf den in 1 gezeigten Markern 3 verwendete QR-Codes in 2 in Draufsicht dargestellt. Wiederkehrende Merkmale sind in dieser Figur wie auch in den folgenden Figuren mit identischen Bezugszeichen versehen. Die dargestellte Codierung enthält Informationen über die Größe des in Draufsicht quadratischen Markers 3 bzw. dessen Abmessungen sowie den Instrumententyp des Instruments 2, an dem der Marker 3 befestigt ist. Der in 2 dargestellte beispielhafte QR-Code stellt sich nach einem Auslesen als ”s50 Pointer” dar und bezeichnet durch ”s50” eine Kantenlänge von 50 mm, wodurch aufgrund der quadratischen Ausgestaltung sowohl Länge als auch Breite bekannt sind. Durch ”Pointer” wird das Werkzeug bezeichnet, an dem der Marker 3 mit der dargestellten Markerstruktur 4 befestigt ist. Gegebenenfalls kann der Marker 3 bzw. die Markerstruktur 4 als Codierung auch eine Transformation zur Instrumentenspitze aufweisen. Die Markerstrukturen 4 und die Marker 3 können sehr flexibel ausgebildet sein. Beispielsweise können Metallplättchen oder Kunststoffplättchen durch Lasergravieren oder Ätzen strukturiert werden, oder es können Aufkleber ausgedruckt und auf das Instrument 2 aufgeklebt werden.
  • Videobilddaten der in der OP-Lampe 6 integrierten Kamera 5 werden in dem im Folgenden noch näher beschriebenen Verfahren zur Navigation verwendet, wobei, wie in 3 in einer perspektivischen Ansicht gezeigt, aus einer Abbildung des Flächenmarkers in einem Einzelbild der Videobilddaten die Position und die Orientierung des Markers 3 im Raum bestimmt werden. Das von der Kamera 5 aufgenommene Einzelbild 21 ist in 3 mit einem zugehörigen Koordinatensystem zwischen der Kamera 5 und dem mit dem Marker 3 und der Markerstruktur 4 versehenen Instrument 2 schematisch dargestellt. Die Markerstruktur 4 erscheint in dem Einzelbild 21 aufgrund einer Verkippung des Instruments 2 und des Markers 3 verzerrt. Da der Marker 3 auch gut erfassbare Außenkanten als zusätzliche sogenannte ”feature points” zu den schwarz-weiß Übergängen der Markerstruktur 4 aufweist, kann die Markerstruktur 4 mit ihrer Verzerrung im Einzelbild 21 klar erfasst werden und durch die Auswerteeinheit 7 verarbeitet werden. Zudem kann auch ein Abstand zwischen dem Marker 3 und der Kamera 5 bestimmt werden.
  • Ein entsprechendes Ausführungsbeispiel eines Verfahrens ist in 4 in einem Ablaufdiagramm dargestellt. Ziel ist hierbei, die Position und Orientierung des Markers 3 bzw. der Markerstruktur 4 im Videodatenstrom aus den Einzelbildern 21 zu rekonstruieren. Hierzu wird zunächst eine Kamerakalibrierung 8 zur Bestimmung der internen Kameraparameter und Eliminierung optischer Verzerrungen durchgeführt. Nachfolgend erfolgt zur Bestimmung der Lagedaten eine Markerlokalisation 9, wodurch ein Bildausschnitt in dem Einzelbild 21 bestimmt wird, in dem sich der Marker 3 befindet. Eine anschließende Markererkennung 10 liest die in der Markerstruktur 4 enthaltenen Informationen aus, beispielsweise die Große oder die Transformation zur Instrumentenspitze. In der darauffolgenden Markerdetektion 11 erfolgt eine präzise Erkennung der Markerstruktur 4 und dadurch die Bestimmung von Punkt- und Linienkorrespondenzen als Basis für die Positions- und Orientierungsberechnung, der sogenannten ”Pose”. Diese Poseberechnung 12 wird durch eine Homographie-Transformation auf die Position und die Orientierung des Markers 3 rückgerechnet. Im letzten Schritt wird durch ein nicht-lineare Optimierung 13 ein Rückprojektionsfehler minimiert und hierdurch die optimale Pose bestimmt Außerdem kann als Optimierungsschritt mittels z. B. eines Kalman-Filters das dargestellte Verfahren stabilisiert und hierdurch Ausreißer eliminiert werden.
  • 5 zeigt in einer 1 entsprechenden Ansicht den auf dem Patienten 1 befestigten Marker 3 mit Markerstruktur 4, der nun jedoch durch ein Stereokamerasystem aus den OP-Lampen 6 und 14 mit jeweils daran angeordneten Kameras 5 und einer gemeinsamen Auswerteeinheit 7 erfasst wird. Statt zweier OP-Lampen 6 und 14 kann in weiteren Ausführungsbeispielen auch ein einteiliges Gerät mit zwei darin enthaltenen Kameras 5 verwendet werden. Es ist aber natürlich auch möglich, mehr als zwei Kameras zu verwenden, die in jeweils einzelnen Gehäusen oder in einem einzigen Gehäuse angeordnet sind.
  • Die Markernavigation kann mit beliebig vielen Kameras 5 umgesetzt werden. Bei einer Nutzung von mehr als einer Kamera 5 erhöht sich eine Genauigkeit und Robustheit der Instrumentennavigation erheblich. Weiterhin erhöht sich die Wahrscheinlichkeit, dass immer zumindest eine der Kameras 5 ein freies Sichtfeld auf die Markerstrukturen 4 als Markerlokalisatoren hat. Da Operationssäle zunehmend mit Kameras 5 für Schulungs-, Visualisierungs- und Dokumentationszwecke ausgerüstet sind, können diese Kameras 5 auch für Navigationszwecke genutzt werden.
  • Ein entsprechendes Verfahrensablaufdiagramm beim Benutzen zweier Kameras 5 ist in 6 in einer 4 entsprechenden Ansicht gezeigt. Startend mit der Kalibrierung 15 der ersten Kamera 5 und der Kalibrierung 16 der zweiten Kamera 5 erfolgt die Markerdetektion 11 und die Berechnung der Position und Orientierung der Marker 3, also die Poseberechnung 12, für jede der Kameras 5 individuell durch die gemeinsame Auswerteeinheit 7. Aus der Transformation, also Translation und Rotation, der Marker 3 zu jeder der Kameras 5 kann wiederum durch eine Transformationsberechnung 17 die Transformation der beiden Kameras 5 zueinander berechnet werden. Hierdurch kann durch eine Stereotriangulation 18 die Markerlage bestimmt werden und ein Genauigkeitscheck 19 sowie eine Optimierung 13 der berechneten Lage aus den individuellen Berechnungen, also der Lagebestimmung 12 der ersten Kamera 5 und der zweiten Kamera 5 sowie der Lagebestimmung durch Triangulation 18, durchgeführt werden.
  • Die Auswerteeinheit 7 ist typischerweise eine elektronische Recheneinheit, beispielsweise ein Computer, auf der ein Computerprogramm abläuft, das das beschriebene Verfahren durchführt und bzw. oder die beschriebene Anordnung ansteuert. Ein Computerprogrammprodukt liegt in Form einer auf einem maschinenlesbaren Träger wie einer Festplatte oder einer Compact Disc gespeicherten Befehlsfolge (oder Teile eines Programmcodes) vor, die das Verfahren wie beschrieben durchführt bzw. die Anordnung ansteuert, wenn das Computerprogramm auf der elektronischen Recheneinheit abläuft.
  • 7 zeigt eine weitere Ausführungsform des Markers 3 in einer perspektivischen Ansicht. Auf dem Instrument 2 ist der als Flchenmarker ausgeführte Marker 3 nun dreidimensional ausgeprägt, um seine Sichtbarkeit aus verschiedenen Richtungen zu gewährleisten. Hierzu ist der Marker 3 aus mehreren gegeneinander verkippten Plättchen aufgebaut, auf denen jeweils die Markerstruktur 4 angeordnet ist. In weiteren Ausführungsbeispielen kann auch auf jedem der Plättchen lediglich ein Teil der Markerstruktur 4 angeordnet sein. Der Marker 3 ist somit um das Instrument 2 gebogen. Dies erlaubt es, eine Genauigkeitssteigerung des beschriebenen Verfahrens zur Lageerfassung zu erreichen, da nun zwei oder mehr Flächen zur Lagebestimmung verwendet werden.
  • 8 zeigt ein detailliertes Ausführungsbeispiel des Verfahrens. Startend mit einer Videobildaufnahme 22 durch die Kamera 5, die Eingabedaten für das Verfahren erzeugt, wird zunächst ein Einzelbild 21 erhalten, in dem der Marker 3 neben einer Nichtmarkerumgebung 23 abgebildet ist.
  • Nachfolgend erfolgt bei dem dargestellten Ausführungsbeispiel eine grobe Markerlokalisation 9, bei der ein Bildausschnitt 24 um den Marker 3 ermittelt wird anhand Grobstrukturen 25 oder Markierungen des Markers 3 als sogenannte ”finder pattern”. Der vergrößerte Bildausschnitt 24 mit dem Marker 3 wird nachfolgend weiterverarbeitet, indem ein Auslesen 26 der codierten Markerinformationen aus der Markerstruktur 4 und eine feinere Markerlokalisation 27 in dem erfassten Bildausschnitt 24 durchgeführt, bei der die ausgelesenen Markerinformationen bereits benutzt werden und außerdem eine Linienzuordnung 28 von nun ermittelten Feinstrukturen und eine Detektion bzw. Lokalisierung der Feinstrukturen erfolgt. Im Ergebnis kann somit im letzten Schritt 29 eine Ausgabe von genaueren Lagedaten zwischen dem Marker 3 und der Kamera 5 erfolgen.
  • Der dargestellte QR-Code ergibt ausgelesen ”id = 1001 size = 54 mm Fraunhofer” und bezeichnet eine Identifikationsnummer des Instruments, an dem der Marker 3 befestigt ist, bzw. eine Identifikationsnummer des Markers selbst sowie eine Angabe der Kantenlänge und eine Angabe des Herstellers des Instruments, an dem der Marker 3 mit der abgebildeten Markerstruktur 4 befestigt ist.
  • Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.

Claims (10)

  1. Verfahren zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur (4) angeordnet ist, die zumindest Abmessungen und/oder eine Größe des Markers (3) codiert kennzeichnet, mit den Schritten: a) Optisches Aufnehmen (8) mindestens eines Einzelbilds (21) des zu untersuchenden Objekts mit einer optischen Aufnahmeeinheit (5) und Übermitteln des mindestens einen Einzelbilds (21) an eine Auswerteeinheit (7); b) Durchführen einer Markerlokatisation (9) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit (7); c) Festlegen eines Bildausschnitts (10) in dem mindestens einen Einzelbild (21), in dem sich der Marker befindet, durch die Auswerteeinheit (7); d) Durchführen einer Markerdetektion (11), bei der die an dem oder auf dem Marker (3) angeordnete Struktur (4) erfasst wird, durch die Auswerteeinheit (7); e) Verarbeiten der bei der Markerdetektion (12) erfassten Struktur (4), wobei zumindest eine Position und/oder eine Orientierung des Markers (3) in Bezug zu der optischen Aufnahmeeinheit (5) aus den durch die Struktur (4) codierten Abmessungen oder der Größe des erfassten Markers (3) und der erfassten Struktur (4) in dem mindestens einen Einzelbild (21) durch die Auswerteeinheit ermittelt und in der Auswerteeinheit (7) gespeichert werden und/oder auf einer Ausgabeeinheit (20) dargestellt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch die Struktur (4) des Markers (3) eine Größe, eine Bezeichnung und/oder eine Form des zu untersuchenden Objekts (1, 2) gekennzeichnet werden.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass von der Auswerteeinheit (7) der Abstand zwischen dem Marker (3) und der optischen Aufnahmeeinheit (5) bestimmt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Struktur (4) des Markers (3) durch einen Strichcode, einen QR-Code, mindestens eine Kante und/oder kreisförmige Strukturen mit mindestens zwei Farben gebildet werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von der Auswerteeinheit (7) beim Verarbeiten der Strukturen eine Transformation zwischen dem Marker (3) und der optischen Aufnahmeeinheit (5) in dem mindestens einen Einzelbild (21) ermittelt wird, um die Position des Markers (3) und die Orientierung des Markers (3) zu bestimmen und/oder zu überprüfen.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine nicht-lineare Optimierung von der Auswerteeinheit (7) beim Verarbeiten der Struktur (4) durchgeführt wird, um Rückprojektionsfehler zu minimieren.
  7. Anordnung zur Lageerfassung eines zu untersuchenden Objekts (1, 2), an dem ortsfest ein Marker (3) mit einer optisch auslesbaren Struktur angeordnet ist, mit einer optischen Aufnahmeeinheit (5) und einer Auswerteeinheit (7), wobei die Anordnung eingerichtet ist, ein Verfahren nach einem der Ansprüche 1–6 durchzuführen.
  8. Anordnung nach Anspruch 7, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (5) an einer Lichtquelle (6) eines Operationssaals angeordnet ist.
  9. Anordnung nach Anspruch 7 oder Anspruch 8, dadurch gekennzeichnet, dass die optische Aufnahmeeinheit (5) als eine Stereokamera oder als mehr als zwei einzelne Kameras ausgebildet ist.
  10. Computerprogrammprodukt, aufweisend eine auf einem maschinenlesbaren Träger gespeicherte Befehlsfolge zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 6 und/oder zum Ansteuern der Anordnung nach einem der Ansprüche 7 bis 9, wenn das Computerprogrammprodukt auf einer elektronischen Recheneinheit abläuft.
DE102015212352.9A 2015-07-01 2015-07-01 Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts Withdrawn DE102015212352A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015212352.9A DE102015212352A1 (de) 2015-07-01 2015-07-01 Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015212352.9A DE102015212352A1 (de) 2015-07-01 2015-07-01 Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts

Publications (1)

Publication Number Publication Date
DE102015212352A1 true DE102015212352A1 (de) 2017-01-05

Family

ID=57582918

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015212352.9A Withdrawn DE102015212352A1 (de) 2015-07-01 2015-07-01 Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts

Country Status (1)

Country Link
DE (1) DE102015212352A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007091A1 (de) 2016-07-06 2018-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur bildgebung in einem operationssaal
DE102018208203A1 (de) * 2018-05-24 2019-11-28 Carl Zeiss Industrielle Messtechnik Gmbh Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
DE102018010361B4 (de) * 2018-05-24 2021-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Targetkörper mit einer Mehrzahl von Markern, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
DE102020126029A1 (de) 2020-10-05 2022-04-07 B. Braun New Ventures GmbH Chirurgisches Assistenzsystem und Darstellungsverfahren
DE102020134898A1 (de) 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Zielmarke zur Bestimmung einer dreidimensionalen Pose eines Objekts
WO2022182549A1 (en) * 2021-02-26 2022-09-01 Surgical Planning Associates Inc. Systems and methods for registering and tracking anatomical structures
US11504855B2 (en) 2017-06-20 2022-11-22 Carl Zeiss Smt Gmbh System, method and marker for the determination of the position of a movable object in space
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
DE102021213358A1 (de) 2021-11-26 2023-06-01 Physik Instrumente (PI) GmbH & Co KG Posenbestimmung bei Parallelkinematiken mit Referenzmarkern
US11806081B2 (en) 2021-04-02 2023-11-07 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015003727A1 (en) * 2013-07-08 2015-01-15 Brainlab Ag Single-marker navigation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015003727A1 (en) * 2013-07-08 2015-01-15 Brainlab Ag Single-marker navigation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Wikipedia QR-Code *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007091A1 (de) 2016-07-06 2018-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur bildgebung in einem operationssaal
US11504855B2 (en) 2017-06-20 2022-11-22 Carl Zeiss Smt Gmbh System, method and marker for the determination of the position of a movable object in space
DE102018208203A1 (de) * 2018-05-24 2019-11-28 Carl Zeiss Industrielle Messtechnik Gmbh Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
DE102018208203B4 (de) * 2018-05-24 2020-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Targetkörper, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
US10748300B2 (en) 2018-05-24 2020-08-18 Carl Zeiss Industrielle Messtechnik Gmbh Target body, arrangement including a target body, and method for determining a position and/or an alignment of a target body
DE102018010361B4 (de) * 2018-05-24 2021-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Targetkörper mit einer Mehrzahl von Markern, Anordnung mit Targetkörper und Verfahren zum Ermitteln einer Position und/oder einer Ausrichtung eines Targetkörpers
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
DE102020126029A1 (de) 2020-10-05 2022-04-07 B. Braun New Ventures GmbH Chirurgisches Assistenzsystem und Darstellungsverfahren
DE102020134898A1 (de) 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Zielmarke zur Bestimmung einer dreidimensionalen Pose eines Objekts
WO2022182549A1 (en) * 2021-02-26 2022-09-01 Surgical Planning Associates Inc. Systems and methods for registering and tracking anatomical structures
US11806081B2 (en) 2021-04-02 2023-11-07 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11871997B2 (en) 2021-04-02 2024-01-16 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
US11610378B1 (en) 2021-10-04 2023-03-21 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
DE102021213358A1 (de) 2021-11-26 2023-06-01 Physik Instrumente (PI) GmbH & Co KG Posenbestimmung bei Parallelkinematiken mit Referenzmarkern

Similar Documents

Publication Publication Date Title
DE102015212352A1 (de) Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts
EP3330922B1 (de) Verfahren und vorrichtung zum darstellen eines objektes
EP1900336B1 (de) Vorrichtung und Verfahren zum Messen geometrischer Eigenschaften medizintechnischer Behandlungsvorrichtungen, insbesondere zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computerassistierte Chirurgie
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP1719472B1 (de) Vorrichtungen und Verfahren zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computer-assistierte Chirurgie
DE102006005036A1 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
WO2003105709A1 (de) Verfahren und instrument zur chirurgischen navigation
DE102012220115A1 (de) Bildgebendes System, Operationsvorrichtung mit dem bildgebenden System und Verfahren zur Bildgebung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE102011114333A1 (de) Verfahren zur Registrierung eines Röntgenvolumens mit einem Lageerfassungssystem unter Verwendung eines Registrierphantoms
DE102014102425B4 (de) Mikroskopsystem und Mikroskopieverfahren unter Verwendung digitaler Marker
EP3290861A1 (de) Sensoranlage mit einer optischen sensoreinheit und eine automatisierungsanlage
DE102018119691A1 (de) Kamerasystem zur Erfassung von Kodierungen
DE102017113615A1 (de) System, Verfahren und Marker zur Positionsbestimmung eines beweglichen Objektes im Raum
DE102007030378A1 (de) System zur Bestimmung der Lage eines Kamerasystems
DE102015013551B4 (de) System und Verfahren zur Positions-und Lagebestimmung von Objekten
EP1657678B1 (de) Videobildunterstützte Patientenregistrierung
EP1813911A1 (de) Positionsbestimmungssystem
DE102014110570A1 (de) Bilderzeugungsapparat und -verfahren mit Kombination von funktionaler Bildgebung und Ultraschallbildgebung
EP1667067B1 (de) Verfahren und Vorrichtung zum Kalibrieren eines medizinischen Instrumentes
EP1681028B1 (de) Video-tracking und -Registrierung
DE102009019019A1 (de) Video-basiertes Mono-Kamera-Navigationssystem
DE102017122627B4 (de) Optisches Messsystem und Messverfahren
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit
DE102019209117A1 (de) Verfahren zur Lokalisierung eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee