DE102005018943A1 - Anordnung und Verfahren für aufgezeichnete Video-Endoskopie und virtuelle Endoskopie - Google Patents
Anordnung und Verfahren für aufgezeichnete Video-Endoskopie und virtuelle Endoskopie Download PDFInfo
- Publication number
- DE102005018943A1 DE102005018943A1 DE102005018943A DE102005018943A DE102005018943A1 DE 102005018943 A1 DE102005018943 A1 DE 102005018943A1 DE 102005018943 A DE102005018943 A DE 102005018943A DE 102005018943 A DE102005018943 A DE 102005018943A DE 102005018943 A1 DE102005018943 A1 DE 102005018943A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- volume
- dimensional volume
- interest
- acquisition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00158—Holding or positioning arrangements using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Ein
Verfahren zur Verknüpfung
eines Bildes mit einem interessierenden Bereich in einem dreidimensionalen
Volumen beinhaltet die Gestaltung eines Volumens wie das dreidimensionale
Volumen (101), die Führung
einer Bilderfassungseinheit innerhalb des Volumens, die Speicherung
von Positions- und Orientierungsinformationen der Bilderfassungseinheit,
wenn mindestens ein Bild aufgenommen wurde (102), und die Ermittlung
einer längslaufenden
Entfernung, welche die Bilderfassungseinheit zurückgelegt hat, wenn das mindestens
eine Bild aufgenommen ist (103). Das Verfahren beinhaltet weiter die
Verzeichnung der Position, der Orientierung und der längslaufenden
Entfernung der Bilderfassungseinheit zu einer entsprechenden Position
innerhalb des dreidimensionalen Volumens (104) und die Ermittlung
des mindestens einen Bildes, welches verzeichnet wurde, um dem interessierenden
Bereich zu entsprechen, wobei das mindestens eine Bild angezeigt
und der interessierende Bereich charakterisiert wird (105).
Description
- Diese Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung Nr. 60/564,936, die am 23. April 2004 eingereicht wurde. Auf den Inhalt dieser Anmeldung wird Bezug genommen.
- Hintergrund der Erfindung
- 1. Technisches Gebiet
- Die vorliegende Erfindung bezieht sich auf Endoskopie und insbesondere auf eine Anordnung und ein Verfahren für von außen geführte Video-Endoskopie unter Verwendung von Endorobotern in Kombination mit virtueller Endoskopie.
- 2. Diskussion des Standes der Technik
- Eine endoskopische Untersuchung ist ein medizinisches Verfahren, bei dem eine als Endoskop bezeichnete darstellende Einheit in ein lebendes Subjekt zum Zwecke der Diagnose und/oder der Behandlung eingebracht wird. Beispiele der Endoskopie sind die Kolonoskopie und die Bronchoskopie.
- Diese Verfahren setzen voraus, dass das Instrument durch direkte, mechanische Interaktion eingebracht und gesteuert wird. Das bedeutet, dass ein Teil des Instrumentes innerhalb des Patienten ist, während der Rest desselben Instrumentes von außen betätigt wird. Aus Gestaltungsgründen haben die meisten Endoskopieeinrichtungen die Form eines langen, flexiblen oder festen Rohres, welches an einen Steuerkopf angeschlossen ist, der außerhalb des Körpers des Patienten verbleibt.
- Eine Konsequenz dieser Ausführung ist, dass es gewöhnlich leicht zu schwerwiegenden Unannehmlichkeiten in Verbindung mit Endoskopie kommt, gekoppelt mit einem Risiko, interne Strukturen zu beschädigen, falls zu viel Kraft von außen an das Endoskop angewandt wird.
- Virtuelle Endoskopie könnte in der Theorie verwendet werden, um die Körperstrukturen, die von Interesse sind, zu erkunden und um die Problemzonen, wie beispielsweise Knoten und Polypen, aufzuspüren. Jedoch kann diese Technik zur Erfassung von falschen, positiven Diagnosen oder Fehldiagnosen führen, was wiederum zu unnötigen invasiven Biopsien führen kann.
- Daher besteht ein Bedarf für eine Anordnung und ein Verfahren für einen Endoroboter.
- Zusammenfassung der Erfindung
- Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung beinhaltet ein computerimplementiertes Verfahren zur Verknüpfung eines Bildes mit einem interessierenden Bereich in einem dreidimensionalen Volumen, die Modellierung eines Volumens wie das dreidimensionale Volumen, die Führung eines. Bilderfassungseinheit innerhalb des Volumens, die Speicherung von Positions- und der Orientierungsinformationen der Bilderfassungseinheit zum Zeitpunkt wenn mindestens ein Bild erfasst worden ist und die Ermittlung einer längslaufenden Entfernung, welche die Bilderfassungseinheit, zum Zeitpunkt wenn mindestens ein Bild erfasst worden ist, zurückgelegt hat. Das Verfahren beinhaltet weiter die Verzeichnung der Position, der Orientierung und der längslaufenden Entfernung der Bilderfassungseinheit zu einer dazugehörigen Position innerhalb des dreidimensionalen Volumens, die Ermittlung eines interessierenden Bereichs innerhalb des dreidimensionalen Volumens und die Ermittlung des mindestens einen Bildes, aufgezeichnet, um dem interessierenden Bereich zu entsprechen, wobei das mindestens eine Bild angezeigt und der interessierende Bereich charakterisiert wird.
- Die Verzeichnung beinhaltet weiter die Ermittlung einer Mittelachse des dreidimensionalen Volumens, die Ermittlung eines Übereinstimmung des Pfades der Bilderfassungseinheit und der Mittelachse des dreidimensionalen Volumens und die Verzeichnung des mindestens einen Bildes zu einer Position innerhalb des dreidimensionalen Volumens. Die Verzeichnung beinhaltet weiter die Ermittlung einer Anfangsposition der Videoerfassungseinheit und die manuelle Auswahl einer Position, die mit der Anfangsposition in dem dreidimensionalen Raum übereinstimmt.
- Die längslaufende Entfernung ist ein Abstand der Videoerfassungseinheit von der Anfangsposition.
- Die Ermittlung des mindestens einen Bildes beinhaltet die automatische Anzeige des mindestens einen Bildes in Verbindung mit der Anzeige der entsprechenden Position innerhalb des dreidimensionalen Volumens.
- Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird eine Programmspeichereinheit, die von einer Maschine gelesen werden kann, bereitgestellt, welche ein Programm mit Anweisungen greifbar enthält, welche durch die Maschine ausführbar sind, um die Verfahrensschritte zur Verknüpfung eines Bildes mit einem interessierenden Bereich in einem dreidimensionalen Volumen durchzuführen. Die Verfahrensschritte schließen die Modellierung eines Volumens wie das dreidimensionale Volumen ein, die Führung einer Bilderfassungseinheit innerhalb des Volumens, die Speicherung von Positions- und Orientierungsinformationen der Bilderfassungseinheit zum Zeitpunkt wenn mindestens ein Bild erfasst worden ist und die Ermittlung einer längslaufenden Entfernung, welche die Bilderfassungseinheit, zum Zeitpunkt wenn mindestens ein Bild erfasst worden ist, zurückgelegt hat.
- Das Verfahren beinhaltet weiter die Verzeichnung der Position, der Orientierung und der längslaufenden Entfernung der Bilderfassungseinheit zu einer dazugehörigen Position innerhalb des dreidimensionalen Volumens, die Ermittlung eines interessierenden Bereichs innerhalb des dreidimensionalen Volumens und die Ermittlung des mindestens einen Bildes, aufgezeichnet, um dem interessierenden Bereich zu entsprechen, wobei das mindestens eine Bild angezeigt und der interessierende Bereich charakterisiert wird.
- Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung beinhaltet ein Verfahren zur Betrachtung eines virtuellen Volumens eines realen Raumes die Anzeige eines Teils des virtuellen Volumens des realen Raumes, die automatische und zeitgleiche Anzeige eines ermittelten Bildes des realen Raumes, welches dem Teil des virtuellen Volumens in einem zweiten Fenster entspricht und die Kennzeichnung des Teils des virtuellen Volumens auf Grundlage der Kombination des virtuellen Volumens und des aufgezeichneten Bildes.
- Kurzbeschreibung der Zeichnungen:
- Nachstehend werden bevorzugte Ausführungsbeispiele der vorliegenden Erfindung detaillierter unter Bezugnahme der beiliegenden Zeichnungen beschrieben:
-
1 ist ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; -
2 ist ein Schaubild eines Endoroboters gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; -
3A ist eine Darstellung eines Teils eines Virtuelle-Endoskopie-Volumens gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; -
3B ist eine Darstellung eines Magen-Darm-Trakts und zugehörigen Bildern gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; -
4 ist ein Schaubild eines Computersystems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. - Ausführliche Beschreibung der bevorzugten Ausführungsbeispiele
- Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung können durch einen Endoroboter erfasste Bilder zu einem rekonstruierten, dreidimensionalen (3D) Volumen aus Daten registriert werden. Das virtuelle Volumen wird basierend auf einer Abtastung eines Raumes
101 erzeugt, beispielsweise eines Kolons (vergleiche1 ). Der Endoroboter wird innerhalb des Raumes geführt und die 3D Position und Orientierung jedes von dem Endoroboter erfassten Bildes festgestellt102 . Die in der interessierenden Struktur, wie beispielsweise eines Kolons, zurückgelegte, längslaufende Entfernung wird bestimmt103 . Die Position, Orientierung und längslaufende Entfernung werden verwendet, um die Position des Endoroboters zu seiner entsprechenden Position innerhalb des 3D Volumens aus Daten zu verzeichnen104 . Virtuelle Endoskopie kann verwendet werden, um interessierende Bereiche zu lokalisieren und klinische Befunde. mit den Bildern der interessierenden Bereiche zu korrelieren105 . Die kombinierten klinischen Befunde können verwendet werden, um das Vertrauen in die Diagnose zu stärken, die Anzahl an falschen Positiven und die Anzahl an durchgeführten Biopsien zu verringern. Derartige Befunde können auch für verschiedenartige Anwendungen verwendet werden, beispielsweise für die Identifikation von Patienten mit prämalignen Dysplasien im Colorectum, beispielsweise unter Verwendung fluoreszenter Bildgebung, Ermöglichung der Identifikation von frühen neoplastischen Läsionen im Colorectum, beispielsweise unter Verwendung von hoch-auflösender Endoskopie. - Bezugnehmend auf
2 ist ein Endoroboter eine Kapsel201 , die verschluckt oder auf nicht-chirurgische Art in einen Patienten eingeführt werden kann. Beispiele für derartige Roboter sind die, welche auf dem Markt von derartigen Herstellern wie Given Imaging angeboten werden. Diese Kapseln beinhalten eine Kamera202 , eine Beleuchtungsquelle203 und Hardware für die drahtlose Übertragung von Bildern204 zu einer Konsole außerhalb des Patienten. Die Kamera202 erfasst Bilder oder Videobilder, beispielsweise als makroskopische, Normal-Spektrum-Visualisierung, oder andere können fluoreszente Bildgebung, Vergrößerungs-Bildgebung oder Videoerfassung durchführen. - Die Position und Orientierung des Endoroboters kann unter Verwendung eines externen Führungssystems bestimmt werden. Die Führung wird kontinuierlich und in Echtzeit durchgeführt. Das System kann ein magnetisches System zur Führung der Position und der Orientierung des Endoroboters während der Patientenprüfung beinhalten. Verschieden Typen an magnetischer Führung können verwendet werden. Zum Beispiel kann ein Führungssystem ein oder mehrere Permanentmagnete
205 beinhalten, angeordnet an vorher festgelegten und bekannten Orten innerhalb des Endoroboters. Magnetische Ortung und Führung beinhaltet die Bestimmung eines Dipol-Magnets in einem 3D-Raum. Eine Anordnung von magnetischen Sensoren, die außerhalb des Patienten angeordnet sind, sammeln Daten, wie beispielsweise die Feldstärke des Magneten205 an einem bekannten Ort, um sowohl die Lage, als auch die Orientierung des Magneten205 und dadurch die Endoroboterkapsel201 , welche die Kamera202 beinhaltet, zu ermitteln. Die Anordnung von Magnetfeldsensoren kann aus in Gruppen angeordneten magnetwiderstandsbeständigen Sensoren bestehen, die in Gruppen angeordnet sind, um 3D-Vektorensätze herauszubilden. Die Sensoren sammeln Richtungs- und Stärkedaten eines Magnetfeldes (beispielsweise als Vektor dargestellt) des Magneten205 . Der Vektor ändert die Richtung und die Stärke auf eine bekannte Art und Weise im Raum, welcher den Magneten umgibt. Beispielsweise weisen die Magnetfeldvektoren senkrecht von der Fläche des Nordpols des Magneten weg und in den Südpol des Magneten hinein und schaffen dazwischenliegende Winkel zur Achse des Magneten zwischen den Polen. - Ein anderes Beispiel für ein Führungssystem beinhaltet einen Endoroboter mit einer Punktelektrode, einer Ringelektrode und einem Lagesensor. Die Lage wird unter Verwendung von drei Spulen bestimmt, die außerhalb des Patienten an bekannten Orten im dreidimensionalen Raum angeordnet sind und Magnetfelder erzeugenden, welche als eine Funktion von der Entfernung abklingen. Der Lagesensor erfasst die Feldstärke eines kombinierten Feldes, was die Bemessung einer Entfernung zu jeder Spule ermöglicht. Die Lage des Sensors und folglich auch des Endoroboters wird durch die Schnittpunkte der Felder, deren Radien die Entfernungen zu den Spulen sind, die mit dem Sensor bemessen wurden, ermittelt.
- Eine Stromquelle
206 des Endoroboters kann eine Batterie oder eine Induktionsspule und eine Batterie beinhalten. Ein externe Versorgung kann mittels induktivem Laden unter Verwendung der Induktionsspule realisiert werden. Für das induktive Laden ist die Stromquelle206 eine Sekundärwicklung, die den Ladestrom von einer Primärwicklung eines induktiven Ladegerätes erhält. Innerhalb des Endoroboters wird der Strom von einer Spule empfangen und mittels einer Diode gleichgerichtet. Diese Gleichspannung (DC) wird verwendet, um eine Batterie zu laden. Externe, kabellose Energieversorgung erlauben dem Endoroboter ferner längere und mehr leistungsverbrauchende Arbeitsverfahren durchzuführen. - Die virtuelle Endoskopie simuliert eine endoskopische Intervention unter der Verwendung von Verfahren der virtuellen Realität und Computergrafiken. 3D-Volumen Daten von CAT-Scans, MRIs, 3D-Ultraschall, Rotationsangiographie und andere Quellen können verwendet werden, um 3D-Ansichten vom Inneren der betreffenden Aufbauten zu generieren. 3d-Bilder können von zweidimensionalen (2D) Computertomographie- (CT) oder Magnetresonanz- (MR) Daten, beispielsweise durch Volume Rendering, erzeugt werden.
- Die Verzeichnung kann unter Verwendung eines vorbestimmten Bezugsrahmens durchgeführt werden, oder einem oder mehreren benutzerdefinierten Übereinstimmungen zwischen erfassten Bildern und dem 3D-Volumen, welches die Basis zur Festlegung weiterer Übereinstimmungen bilden kann. Ein Beispiel für eine Überseinstimmung kann eine erkennbare Landmarke im 3D-Volumen sein und erfasste Bilder, wie beispielsweise die Flexura duodenojejunalis.
- Die Position, Orientierung und die längslaufende Entfernung, verbunden mit jedem erfassten Bild, werden verwendet, um jedes Bild zu einer entsprechenden Position innerhalb des 3D-Volumens zu verzeichnen.
3a stellt eine Position und eine Orientierung eines Endoroboters als eine XYZ Achse innerhalb eines virtuellen Volumens dar, wobei beispielsweise die Z-Achse eine Sichtlinie der Endoroboterkamera202 darstellt. Die längslaufende Entfernung wird ermittelt, beispielsweise durch die Positionsführung über die Zeit, und den Bildern304 zugeordnet, wie in3B bildlich dargestellt wird. Also kann für Teile des 3D-Voumens, die die Lage betreffend nah sind, beispielsweise Teile des Dünndarms, die übereinander gefaltet sind, die längslaufende Entfernung verwendet werden, um zwischen diesen Teilen zu unterscheiden, wobei ein erster Teil302 0,5 Meter von einem Anfangspunkt303 und ein zweiter Teil 2,5 Meter von dem Anfangspunkt303 sein kann. Ein geeignetes Bild, beispielsweise305 , wird ermittelt und gezeigt, entsprechend einem interessierenden Bereich302 . - Die Verzeichnung der Bilder zu dem virtuellen Volumen kann eine bekannte Startposition des Endoroboters und eine festgelegte Position in dem virtuellen Volumen nutzen. Beispielsweise beginnt die Führung im Mund eines Patienten, was eine identifizierbare Lage im virtuellen Volumen ist. Unter Bezugnahme von
4 beinhaltet die Verzeichnung die Ermittlung einer Anfangsposition des Endoroboters401 und die Ermittlung einer Position im virtuellen Volumen, entsprechend der Anfangsposition des Endoroboters402 . Der Endoroboter wird durch einen Raum403 geführt, welcher durch das virtuelle Volumen bildlich dargestellt wird. Eine Übereinstimmung des Pfades des Endoroboters wird für das virtuelle Volumen im 3D-Raum ermittelt404 . Bilder, die vom Endoroboter aufgezeichnet wurden und die bekannte Positionen und Orientierungen entlang des Pfades des Endoroboters haben, werden zu übereinstimmenden Positionen innerhalb des virtuellen Volumens verzeichnet405 . Die Übereinstimmung des Pfades und der geführten Bahn des Endoroboters (wie in3B gezeigt) kann eine Mittellinie eines virtuellen Volumens, ermittelt durch einen Scan des Patienten, nutzen. Die Mittellinie wird automatisch als Teil von handelsüblichen CT- und MRT- Scans ermittelt, als ein Pfad, der bei einem virtuellen Durchflug des virtuellen Volumens verfolgt wird. Die geführte Bahn des Endoroboters und die ermittelte Mittellinie werden im dreidimensionalen Raum übereinstimmen und können manuell oder automatisch, basiert auf vergleichender Geometrie, verzeichnet werden. - Die Bilder, die vom Endoroboter aufgezeichnet wurden, werden zu den Volume Renderings des virtuellen Volumens verzeichnet. Weil jedes Bild, welches vom Endoroboter erfasst wurde, mit Raum-, Richtungs- und Längeninformationen innerhalb des virtuellen Volumens verbunden ist, können detaillierte Bilder von interessierenden Bereichen, die im Volume Rendering identifiziert worden sind, betrachtet werden. Verzeichnete Bilder können automatisch als Teil eines Durchflugs des virtuellen Volumens dargestellt werden, beispielsweise auf einer Split-Screen-Anordnung. Die verzeichneten Bilder können im Speicher gespeichert werden und durch eine virtuelle Renderinganwendung, die durch einen Computer ausgeführt wird, abgerufen werden, derart, dass ein virtuelles Volumen und reale Bilder zur selben Zeit dargestellt werden können, beispielsweise in zwei Fenstern einer Anwendung oder auf zwei Bildschirmen. Auf diese Weise kann eine Diagnose, eine Charakterisierung und/oder eine Bewertung auf einem virtuellen Volumen und einem detaillierten, verzeichneten Bild aufgebaut sein.
- Es kann angenommen werden, dass die vorliegende Erfindung in verschiedenen Formen in Hardware, Software, Firmware, Spezialprozessoren oder einer Kombination von diesen umgesetzt werden kann. In einem Ausführungsbeispiel kann die vorliegende Erfindung als Software als ein Anwendungsprogramm greifbar verkörpert auf einem Programmspeicherbauteil umgesetzt sein. Das Anwendungsprogramm kann hochgeladen und ausgeführt werden auf einer Anlage, die eine geeignete Architektur beinhaltet.
- Unter Bezugnahme von
5 , gemäß einem Ausführungsbeispiel der vorliegenden Erfindung, kann ein Computersystem501 zur Ausführung der vorliegenden Erfindung unter anderem beinhalten: einen Prozessor (CPU)502 , einen Speicher503 und ein Eingangs/Ausgangs- (I/O-) Anschluss504 . Das Computersystem501 ist üblicherweise über den I/O-Anschluss mit einem Bildschirm505 und verschiedenen Eingabegeräten506 wie beispielsweise einer Maus und einer Tastatur verbunden. Der Bildschirm505 kann Ansichten des virtuellen Volumens und den verzeichneten Bilden darstellen. Die Unterstützungsschaltungen können Schaltungen beinhalten wie beispielsweise einen Puffer, Energieversorgungen, Taktschaltungen und einen Datenübertragungsbus. Der Speicher503 kann einen Direktzugriffsspeicher (RAM) beinhalten, einen Festwertspeicher (ROM), ein Diskettenlaufwerk, ein Bandlaufwerk, etc. oder eine Kombination aus diesen. Die vorliegende Erfindung kann als Programm507 ausgeführt sein, das im Speicher503 gespeichert ist und durch die CPU502 ausgeführt wird, um ein Signal von der Signalquelle508 zu erzeugen. Also ist das Computersystem501 ein Mehrzweckcomputersystem, welches durch die Ausführung des Programms507 der vorliegenden Erfindung zu einem Spezialzweckcomputersystem wird. - Die Computerplattform
501 beinhaltet auch ein Betriebssystem und einen Mikrobefehlscode. Die verschiedenen Prozesse und Funktionen die hier beschrieben werden, können entweder Teil des Mikrobefehlscodes sein, oder Teil des Anwendungsprogramms (oder eine Kombination davon), das über das Betriebssystem ausgeführt wird. Zusätzlich können verschiedene andere Peripheriegeräte an die Computerplattform angeschlossen werden, wie zum Beispiel eine zusätzliche Datenspeichereinheit oder eine Druckeinheit. - Es kann weiter angenommen werden, dass einige der einzelnen Systemkomponenten und Verfahrensschritte, beschrieben in den beigefügten Figuren, als Software implementiert werden können, so dass die tatsächlichen Verbindungen zwischen den Systemkomponenten (oder den Verfahrensschritten) abweichen können, je nach Art und Weise wie die vorliegende Erfindung programmiert wurde. Angesichts der hierin befindlichen Lehren der vorliegenden Erfindung, wird ein Durchschnittsfachmann in der Lage sein, diese und ähnliche Ausführungen oder Konfigurationen der vorliegenden Erfindung zu erwägen.
- Mit den beschriebenen Ausführungsbeispiele für ein System und ein Verfahren für virtuelle Endoskopie unter Verwendung von verzeichneten Bildern, die von einem Endoroboter aufgezeichnet wurden, wird vermerkt, dass Modifikationen und Variationen durch einen Fachmann angesichts der obigen Lehren gemacht werden können. Es kann daher angenommen werden, dass Veränderungen in den speziellen Ausführungsbeispielen der veröffentlichten Erfindung gemacht werden können, die innerhalb des Schutzbereichs der Erfindung, wie beschrieben in den angefügten Ansprüchen sind.
Claims (11)
- Computerimplementiertes Verfahren zur Verknüpfung eines Bildes mit einem interessierenden Bereich in einem dreidimensionalen Volumen, beinhaltend: Modellierung eines Volumens als dreidimensionales Volumen; Führung einer Bilderfassungseinheit innerhalb des Volumens, Speicherung von Positions- und Orientierungsinformationen der Bilderfassungseinheit zum Zeitpunkt wenn mindestens ein Bild erfasst worden ist; Ermittlung einer längslaufenden Entfernung, welche die Bilderfassungseinheit zurückgelegt hat, zum Zeitpunkt wenn mindestens ein Bild erfasst worden ist; Verzeichnung der Position, der Orientierung und der längslaufenden Entfernung der Bilderfassungseinheit bezüglich einer entsprechenden Position innerhalb des dreidimensionalen Volumens; Ermittlung eines interessierenden Bereichs innerhalb des dreidimensionalen Volumens; und Ermittlung des mindestens einen Bildes, welches verzeichnet wurde, um dem interessierenden Bereich zu entsprechen, wobei das mindestens eine Bild dargestellt und der interessierende Bereich charakterisiert wird.
- Computerimplementiertes Verfahren nach Anspruch 1, wobei die Verzeichnung ferner beinhaltet: Ermittlung einer Mittellinie des dreidimensionalen Volumens; Ermittlung einer Übereinstimmung zwischen der Bahn der Bilderfassungseinheit und der Mittellinie des dreidimensionalen Volumens; und Verzeichnung des mindestens einen Bildes zu einer Position innerhalb des dreidimensionalen Volumens.
- Computerimplementiertes Verfahren nach Anspruch 1; wobei die Verzeichnung ferner die Ermittlung einer Anfangsposition der Videoerfassungseinheit beinhaltet und die manuelle Auswahl einer Position, die der Anfangsposition im dreidimensionalen Volumen entspricht.
- Computerimplementiertes Verfahren nach Anspruch 3; wobei die längslaufende Entfernung eine Entfernung der Videoerfassungseinheit von der Anfangsposition ist.
- Computerimplementiertes Verfahren nach Anspruch 1; wobei die Ermittlung des mindestens einen Bildes die automatische Darstellung des mindestens einen Bildes beinhaltet, in Verbindung mit der Darstellung der entsprechenden Position innerhalb des dreidimensionalen Volumens.
- Maschinenlesbare Programmspeichereinheit, die ein Programm mit Anweisungen greifbar enthält, die durch die Maschine ausführbar sind, um Verfahrensschritte durchzuführen zur Verknüpfung eines Bildes mit einem interessierenden Bereich in einem dreidimensionalen Volumen, wobei die Verfahrensschritte beinhalten: Gestalten eines Volumens wie das dreidimensionale Volumen; Führen einer Bilderfassungseinheit innerhalb des Volumens, Speichern von Positions- und Orientierungsinformationen der Bilderfassungseinheit zu einer Zeit wenn mindestens ein Bild aufgenommen wurde; Ermitteln einer längslaufenden Entfernung, zurückgelegt von der Bilderfassungseinheit bezüglich einer entsprechenden Position innerhalb des dreidimensionalen Volumens; Verzeichnen der Position, der Orientierung und der längslaufenden Entfernung der Bilderfassungseinheit zu einer entsprechenden Position innerhalb des dreidimensionalen Volumens; Ermitteln eines interessierenden Bereichs innerhalb des dreidimensionalen Volumens; und Ermitteln des mindestens einen Bildes, welches verzeichnet wurde, um dem interessierenden Bereich zu entsprechen, wobei das mindestens eine Bild angezeigt und der interessierenden Bereich charakterisiert wird.
- Verfahren nach Anspruch 6, wobei die Verzeichnung ferner beinhaltet: Ermitteln einer Mittellinie des dreidimensionalen Volumens; Ermitteln einer Übereinstimmung zwischen dem Pfad der Bilderfassungseinheit und der Mittellinie des dreidimensionalen Volumens; und Verzeichnen des mindestens einen Bildes zu einer Position innerhalb des dreidimensionalen Volumens.
- Verfahren nach Anspruch 6, wobei die Verzeichnung weiter die Ermittlung einer Anfangsposition der Bilderfassungseinheit beinhaltet und die manuelle Auswahl einer Position im dreidimensionalen Volumen, die der Anfangsposition entspricht.
- Verfahren nach Anspruch 8, wobei die längslaufende Entfernung eine Entfernung der Videoerfassungseinheit von einer Anfangsposition ist.
- Verfahren nach Anspruch 6, wobei die Ermittlung des mindestens einen Bildes die automatische Anzeige des mindestens einen Bildes beinhaltet in Verbindung mit der Anzeige der entsprechenden Position innerhalb des dreidimensionalen Volumens.
- Verfahren zur Betrachtung eines virtuellen Volumens eines realen Raumes beinhaltend: Anzeige eines Teiles des virtuellen Volumens des realen Raumes; Anzeige, automatisch und synchron, eines verzeichneten Bildes des realen Raumes, welches dem Teil des virtuellen Volumens entspricht, in einem zweiten Fenster; und Charakterisierung des Teils des virtuellen Volumens auf Grundlage der Kombination aus virtuellem Volumen und dem verzeichneten Bild.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US56493604P | 2004-04-23 | 2004-04-23 | |
US60/564,936 | 2004-04-23 | ||
US11/108,440 | 2005-04-18 | ||
US11/108,440 US9373166B2 (en) | 2004-04-23 | 2005-04-18 | Registered video endoscopy and virtual endoscopy |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102005018943A1 true DE102005018943A1 (de) | 2006-01-12 |
DE102005018943B4 DE102005018943B4 (de) | 2011-08-18 |
Family
ID=35240314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005018943A Active DE102005018943B4 (de) | 2004-04-23 | 2005-04-22 | Verfahren zur computerimplementierten Verknüpfung eines Bildes mit einem interessierenden Bereich in einem virtuellen dreidimensionalen Volumen |
Country Status (3)
Country | Link |
---|---|
US (1) | US9373166B2 (de) |
JP (1) | JP2006051332A (de) |
DE (1) | DE102005018943B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006014626A1 (de) * | 2006-03-29 | 2007-10-11 | Siemens Ag | Verfahren zur Positionierung einer magnetisch mittels eines Magnetspulensystems navigierbaren Endoskopie-Kapsel |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060270899A1 (en) * | 2005-05-13 | 2006-11-30 | Omar Amirana | Magnetic pill with camera and electrical properties |
US7853058B2 (en) * | 2006-11-22 | 2010-12-14 | Toshiba Medical Visualization Systems Europe, Limited | Determining a viewpoint for navigating a virtual camera through a biological object with a lumen |
US20090010507A1 (en) * | 2007-07-02 | 2009-01-08 | Zheng Jason Geng | System and method for generating a 3d model of anatomical structure using a plurality of 2d images |
KR100978478B1 (ko) * | 2007-08-31 | 2010-08-30 | 주식회사 메디슨 | 무선으로 충전할 수 있는 휴대용 초음파 진단장치 |
US8219179B2 (en) * | 2008-03-06 | 2012-07-10 | Vida Diagnostics, Inc. | Systems and methods for navigation within a branched structure of a body |
US20110251454A1 (en) * | 2008-11-21 | 2011-10-13 | Mayo Foundation For Medical Education And Research | Colonoscopy Tracking and Evaluation System |
EP2365278A1 (de) * | 2010-02-22 | 2011-09-14 | Snap-on Equipment Srl a unico socio | Système de scanner |
JP6195822B2 (ja) * | 2011-03-31 | 2017-09-13 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療処置を支援する形状検出 |
JP2013009956A (ja) * | 2011-06-01 | 2013-01-17 | Toshiba Corp | 医用画像表示装置及び医用画像診断装置 |
JP6068017B2 (ja) * | 2012-06-21 | 2017-01-25 | 東芝メディカルシステムズ株式会社 | 超音波診断装置及び画像生成プログラム |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
US10143364B2 (en) * | 2015-07-23 | 2018-12-04 | Ankon Technologies Co., Ltd | Controlled image capturing method including position tracking and system used therein |
JP6633383B2 (ja) * | 2015-12-17 | 2020-01-22 | 株式会社Aze | 画像診断支援装置及びその制御方法、並びにプログラム及び記憶媒体 |
JP6776030B2 (ja) * | 2016-07-06 | 2020-10-28 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療器具 |
WO2019211741A1 (en) | 2018-05-02 | 2019-11-07 | Augmedics Ltd. | Registration of a fiducial marker for an augmented reality system |
GB2578592B (en) | 2018-10-31 | 2023-07-05 | Sony Interactive Entertainment Inc | Apparatus and method of video playback |
JP7401540B2 (ja) | 2018-11-09 | 2023-12-19 | バイダ ダイアグノスティクス,インコーポレイティド | 管状構造の切断面表示 |
US11766296B2 (en) | 2018-11-26 | 2023-09-26 | Augmedics Ltd. | Tracking system for image-guided surgery |
US10929669B2 (en) * | 2019-06-04 | 2021-02-23 | Magentiq Eye Ltd | Systems and methods for processing colon images and videos |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
CN110720983B (zh) * | 2019-09-05 | 2021-05-25 | 北京万特福医疗器械有限公司 | 一种视觉识别方法和系统 |
WO2021106140A1 (ja) * | 2019-11-28 | 2021-06-03 | オリンパス株式会社 | 内視鏡画像処理装置、内視鏡システム及び内視鏡画像処理装置の作動方法 |
US11382712B2 (en) | 2019-12-22 | 2022-07-12 | Augmedics Ltd. | Mirroring in image guided surgery |
US11875459B2 (en) | 2020-04-07 | 2024-01-16 | Vida Diagnostics, Inc. | Subject specific coordinatization and virtual navigation systems and methods |
US11896445B2 (en) | 2021-07-07 | 2024-02-13 | Augmedics Ltd. | Iliac pin and adapter |
JP2024533111A (ja) * | 2021-09-16 | 2024-09-12 | サージビジョン・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | 異なる内視鏡ユニットを用いて取得した画像の位置合わせ |
WO2024057210A1 (en) | 2022-09-13 | 2024-03-21 | Augmedics Ltd. | Augmented reality eyewear for image-guided medical intervention |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5694530A (en) * | 1994-01-18 | 1997-12-02 | Hitachi Medical Corporation | Method of constructing three-dimensional image according to central projection method and apparatus for same |
US5836869A (en) * | 1994-12-13 | 1998-11-17 | Olympus Optical Co., Ltd. | Image tracking endoscope system |
US5882206A (en) * | 1995-03-29 | 1999-03-16 | Gillio; Robert G. | Virtual surgery system |
US5771895A (en) * | 1996-02-12 | 1998-06-30 | Slager; Cornelis J. | Catheter for obtaining three-dimensional reconstruction of a vascular lumen and wall |
US5724978A (en) * | 1996-09-20 | 1998-03-10 | Cardiovascular Imaging Systems, Inc. | Enhanced accuracy of three-dimensional intraluminal ultrasound (ILUS) image reconstruction |
US6019725A (en) * | 1997-03-07 | 2000-02-01 | Sonometrics Corporation | Three-dimensional tracking and imaging system |
US6263230B1 (en) * | 1997-05-08 | 2001-07-17 | Lucent Medical Systems, Inc. | System and method to determine the location and orientation of an indwelling medical device |
US5879297A (en) * | 1997-05-08 | 1999-03-09 | Lucent Medical Systems, Inc. | System and method to determine the location and orientation of an indwelling medical device |
US6129668A (en) * | 1997-05-08 | 2000-10-10 | Lucent Medical Systems, Inc. | System and method to determine the location and orientation of an indwelling medical device |
US6928314B1 (en) * | 1998-01-23 | 2005-08-09 | Mayo Foundation For Medical Education And Research | System for two-dimensional and three-dimensional imaging of tubular structures in the human body |
IL123073A0 (en) * | 1998-01-26 | 1998-09-24 | Simbionix Ltd | Endoscopic tutorial system |
US6298262B1 (en) * | 1998-04-21 | 2001-10-02 | Neutar, Llc | Instrument guidance for stereotactic surgery |
AU4644799A (en) * | 1998-08-02 | 2000-03-14 | Super Dimension Ltd. | Intrabody navigation system for medical applications |
US7160258B2 (en) * | 2001-06-26 | 2007-01-09 | Entrack, Inc. | Capsule and method for treating or diagnosing the intestinal tract |
DE10142253C1 (de) * | 2001-08-29 | 2003-04-24 | Siemens Ag | Endoroboter |
US6892090B2 (en) * | 2002-08-19 | 2005-05-10 | Surgical Navigation Technologies, Inc. | Method and apparatus for virtual endoscopy |
US7466303B2 (en) * | 2004-02-10 | 2008-12-16 | Sunnybrook Health Sciences Center | Device and process for manipulating real and virtual objects in three-dimensional space |
DE102004011155A1 (de) | 2004-03-08 | 2005-08-18 | Siemens Ag | Verfahren zur Visualisierung von mit einem bildgebenden, endoluminalen Instrument aufgezeichneten 2D-Bilddaten eines Hohlkanals |
-
2005
- 2005-04-18 US US11/108,440 patent/US9373166B2/en active Active
- 2005-04-22 DE DE102005018943A patent/DE102005018943B4/de active Active
- 2005-04-25 JP JP2005127207A patent/JP2006051332A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006014626A1 (de) * | 2006-03-29 | 2007-10-11 | Siemens Ag | Verfahren zur Positionierung einer magnetisch mittels eines Magnetspulensystems navigierbaren Endoskopie-Kapsel |
Also Published As
Publication number | Publication date |
---|---|
US9373166B2 (en) | 2016-06-21 |
US20050251017A1 (en) | 2005-11-10 |
DE102005018943B4 (de) | 2011-08-18 |
JP2006051332A (ja) | 2006-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005018943B4 (de) | Verfahren zur computerimplementierten Verknüpfung eines Bildes mit einem interessierenden Bereich in einem virtuellen dreidimensionalen Volumen | |
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE102005040528B4 (de) | Drahtlose Erfassung der Ausrichtung eines Endoskops | |
US7518619B2 (en) | Method and apparatus for integrating three-dimensional and two-dimensional monitors with medical diagnostic imaging workstations | |
Maurer et al. | A review of medical image registration | |
DE69318304T2 (de) | Ortungssystem | |
EP1719078B1 (de) | Einrichtung und prozess zur multimodalen registration von bildern | |
US6049622A (en) | Graphic navigational guides for accurate image orientation and navigation | |
CN101190124B (zh) | 交互式四维虚拟内窥镜检查术的方法和设备 | |
DE60317358T2 (de) | System zur Positionierung einer medizinischen Vorrichtung | |
US7304644B2 (en) | System and method for performing a virtual endoscopy | |
CN108140242A (zh) | 视频摄像机与医学成像的配准 | |
US20130190602A1 (en) | 2d3d registration for mr-x ray fusion utilizing one acquisition of mr data | |
US20070270689A1 (en) | Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images | |
JP6071282B2 (ja) | 情報処理装置、超音波撮影装置および情報処理方法 | |
JP2938502B2 (ja) | 画像表示装置 | |
JP2007537770A (ja) | 内視鏡画像内の管腔状構造のディスプレイ最適化のための動的なクロップボックス決定方法 | |
JP2005169116A (ja) | 融合画像表示方法 | |
DE112020004438T5 (de) | Prozessor für ein endoskop, programm, informationsverarbeitungsverfahren und informationsverarbeitungsvorrichtung | |
DE102008037424A1 (de) | Verbessertes System und Verfahren für auf Volumen basierende Registrierung | |
DE102008037453A1 (de) | Verfahren und System zur Visualisierung von registrierten Bildern | |
KR20150090117A (ko) | 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 | |
JP2005525207A (ja) | リアルタイムトラクトグラフィ | |
WO2022194126A1 (zh) | 基于胶囊内窥镜构建阅片模型的方法、设备及介质 | |
EP3860455A1 (de) | Verwendung einer kamera mit einem ent-werkzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |
Effective date: 20111119 |
|
R081 | Change of applicant/patentee |
Owner name: INVANDUS GMBH, DE Free format text: FORMER OWNER: SIEMENS MEDICAL SOLUTIONS USA, INC., MALVERN, PA., US |
|
R082 | Change of representative | ||
R081 | Change of applicant/patentee |
Owner name: INVANDUS GMBH, DE Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0019000000 Ipc: A61B0034000000 |