DE102008002864A1 - Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren - Google Patents

Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren Download PDF

Info

Publication number
DE102008002864A1
DE102008002864A1 DE102008002864A DE102008002864A DE102008002864A1 DE 102008002864 A1 DE102008002864 A1 DE 102008002864A1 DE 102008002864 A DE102008002864 A DE 102008002864A DE 102008002864 A DE102008002864 A DE 102008002864A DE 102008002864 A1 DE102008002864 A1 DE 102008002864A1
Authority
DE
Germany
Prior art keywords
substrate
data
internal organ
sensor elements
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008002864A
Other languages
English (en)
Inventor
Daniel E. Cambirdge Groszmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102008002864A1 publication Critical patent/DE102008002864A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1107Measuring contraction of parts of the body, e.g. organ, muscle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • A61B6/527Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion using data from a motion artifact sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3908Soft tissue, e.g. breast tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type
    • A61B2562/046Arrangements of multiple sensors of the same type in a matrix array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/16Details of sensor housings or probes; Details of structural supports for sensors
    • A61B2562/164Details of sensor housings or probes; Details of structural supports for sensors the sensor is mounted in or on a conformable substrate or carrier
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation

Abstract

Geschaffen ist ein Substrat (10), das dazu eingerichtet ist, an einem inneren Organ (24) oder Gewebe angebracht zu werden. In speziellen Ausführungsbeispielen passt sich das Substrat (10) an das innere Organ (24) oder Gewebe an und bewegt sich mit diesem. Auf dem Substrat (10) sind drei oder mehr Sensorelemente (16) integriert. In einem Ausführungsbeispiel erzeugen das Substrat (10) und die zugeordneten Sensorelemente (16) eine dynamische Referenzierung des inneren Organs (24) oder Gewebes, nach einem Zurdeckungbringen der Sensordaten mit Bildern und/oder volumetrischen Darstellungen (126) des inneren Organs (24) oder Gewebes.

Description

  • Die vorliegende Erfindung betrifft allgemein invasive Verfahren, z. B. chirurgische Verfahren. Insbesondere betrifft die vorliegende Erfindung die bildgebend geführte Chirurgie, die vielfältige radiologische Bildgebungsmodalitäten einsetzt.
  • Nachdem medizinische Bildgebungstechnologien ausgereift sind, ist es möglich, den Einsatz medizinischer Bildgebungstechniken mit der Durchführung invasiver Verfahren zu kombinieren. Beispielsweise können invasive Verfahren, z. B. gewisse chirurgische Verfahren, Vorteile aus der Verwendung von Bildgebungstechniken ziehen, die es einem klinischen Arzt ermöglichen, die inneren oder verdeckten Strukturen in dem Bereich des chirurgischen Eingriffs während der Ausführung des Verfahrens sichtbar zu machen. Auf diese Weise kann der klinische Arzt das gewünschte chirurgische Verfahren mit größerer Erfolgsaussicht und ohne eine unnötige Gewebeschädigung durchführen.
  • In der Praxis verwenden derartige bildgebend geführten chirurgischen Techniken gewöhnlich eine zur Verfolgung dienende Referenzrahmenvorrichtung, die in unmittelbarer Nähe der interessierenden Anatomie angeordnet wird. Die Referenzvorrichtung bewegt sich mit dem Patienten, um ein genaues und konsistentes Verfolgen der interessierenden Anatomie zu ermöglichen. Typischerweise muss die Referenzvorrichtung an der interessierenden Anatomie starr befestigt sein. Die Referenzvorrichtung wird daher im Allgemeinen in Nähe der interessieren den Anatomie an hartem Knochengewebe befestigt. Als Folge hiervon sind derartige bildgebend geführten chirurgischen Techniken im Allgemeinen auf Regionen im Körper beschränkt, die durch Knochenanatomie begrenzt sind, z. B. kraniale neurochirurgische, spinale, orthopädische und Sinusverfahren.
  • Während derartige Techniken nützlich sind, existieren selbstverständlich auch andere Bereiche des Körpers, die nicht durch knöcherne Strukturen begrenzt sind und die ebenfalls Vorteile aus derartigen bildgebend geführten Techniken ziehen könnten. Allerdings können gegenwärtig solche bildgebend geführten Techniken aufgrund der Tatsache, dass ein Anbringen einer Referenzvorrichtung in unmittelbarer Nähe der interessierenden Anatomie nicht möglich ist, nicht für Regionen des Körpers, wie z. B. kardiale und abdominale Regionen, genutzt werden, die nicht durch derartige knöcherne Strukturen begrenzt sind. Darüber hinaus bewegen sich viele innere Organe, für die bildgebend geführte chirurgische Techniken von Vorteil wären, möglicherweise, z. B. aufgrund von Atmung, Schwerkraft, und so fort, und rufen daher zusätzliche Probleme für den Eingriff hervor. Darüber hinaus ist es gegebenenfalls auch in Regionen der Anatomie, wo sich Knochengewebe in unmittelbarer Nähe befindet, nicht erwünscht, eine Referenzvorrichtung an dem Knochen anzubringen. Daher besteht ein Bedarf, für bildgebend geführte chirurgische Verfahren eine Referenztechnik zu schaffen, die auf die Befestigung einer Referenzvorrichtung an Skeletstrukturen verzichten kann.
  • KURZBESCHREIBUNG
  • Die vorliegende Erfindung betrifft allgemein die dynamische Referenzierung eines inneren Organs oder Gewebes in einem bildgebend geführten invasiven Verfahren. In einem Ausführungsbeispiel ist ein Substrat mit drei oder mehr Sensorele menten versehen. In einem solchen Ausführungsbeispiel wird das Substrat, z. B. während eines offenen oder laparoskopischen chirurgischen Verfahrens, an einem inneren Organ angeordnet. Durch die Sensorelemente erzeugte Signale oder Felder, z. B. elektromagnetische Signale oder Felder, können genutzt werden, um die Positionen der Sensorelemente zu bestimmen. Die Positionen der Sensorelemente können anschließend mit einem Satz von auf einem Bild basierenden Daten, die möglicherweise die Sensorelemente kennzeichnende Bilddaten beinhalten oder auch nicht, zur Deckung gebracht werden. In einem Ausführungsbeispiel findet das Zurdeckungbringen automatisch statt. Sobald die durch die Sensorelemente erzeugten Signale mit den Bildern oder volumetrischen Darstellungen des inneren Organs zur Deckung gebracht sind, können die von den Sensorelementen abgeleiteten Positions- und Orientierungsdaten genutzt werden, um die visuelle Darstellung des inneren Organs zu modifizieren oder einzustellen, um die Bewegung oder Verformung des Organs widerzuspiegeln. Die modifizierte oder angepasste visuelle Darstellung kann dann verwendet werden, um einem Chirurgen oder einem sonstigen klinischen Arzt zu ermöglichen, basierend auf Bildern, die die aktuelle Position und Gestalt des inneren Organs wiedergeben, ein bildgebend geführtes invasives Verfahren durchzuführen.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist ein chirurgisches Referenzsystem geschaffen. Das chirurgische Referenzsystem enthält ein Substrat, das dazu eingerichtet ist, an einem inneren Organ oder Gewebe angebracht zu werden, so dass das Substrat sich an das innere Organ oder Gewebe anpasst und sich zusammen mit diesem bewegt. Auf dem Substrat sind drei oder mehr Sensorelemente integriert.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren zum Verfolgen dynamischer Bewegungen eines Organs geschaffen. Zu dem Verfahren gehört der Schritt des Erzeugens eines ersten Satzes von Positionsdaten für drei oder mehr Sensorkomponenten, die auf einem Substrat integriert sind, das an einem inneren Organ angeordnet ist. Der erste Satz von Positionsdaten ist auf Signalen oder Feldern begründet, die durch die Sensorkomponenten erzeugt sind. Ein zweiter Satz von Positionsdaten wird für die drei oder mehr Sensorkomponenten basierend auf einer Identifizierung der drei oder mehr Sensorkomponenten in einem oder mehreren radiologischen Bildern oder volumetrischen Darstellungen des inneren Organs erzeugt. In dem ersten Satz von Positionsdaten und in dem zweiten Satz von Positionsdaten werden einander entsprechende Sensorkomponenten identifiziert. Der erste Satz von Positionsdaten wird basierend auf der Identifizierung entsprechender Sensorkomponenten in dem ersten Satz von Positionsdaten und in dem zweiten Satz von Positionsdaten mit dem einen oder den mehreren radiologischen Bildern oder volumetrischen Darstellungen zur Deckung gebracht.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren zum Verfolgen dynamischer Bewegungen eines Organs geschaffen. Zu dem Verfahren gehört der Schritt des Erzeugens von Positions- und Orientierungsdaten für eine oder mehrere Sensorkomponenten, die auf einem Substrat vorgesehen sind, das an einem inneren Organ angeordnet ist. Die Positions- und Orientierungsdaten sind auf Signalen oder Feldern begründet, die durch die Sensorkomponenten erzeugt sind. Basierend auf den Positions- und Orientierungsdaten wird ein Formmodell des Substrats erzeugt. Darüber hinaus wird ein interessierender Bereich in einem oder mehreren radiologischen Bildern oder volumetrischen Darstellungen segmentiert. Der interessierende Bereich enthält wenigstens das innere Organ, einen Abschnitt des inneren Organs oder einen zu dem inneren Organ unmittelbar benachbarten oder damit verbundenen Bereich. Ba sierend auf der Segmentation wird ein Formmodell des interessierenden Bereichs erzeugt. Das Formmodell des Substrats und das Formmodell des interessierenden Bereichs werden zur Deckung gebracht.
  • ZEICHNUNGEN
  • Diese und sonstige Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden nach dem Lesen der nachfolgenden detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen verständlicher, in denen gleichartige Elemente durchgängig mit ähnlichen Bezugszeichen versehen sind:
  • 1 veranschaulicht einen Streifen chirurgischer Gaze, die Sensorkomponenten aufweist, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 veranschaulicht einen Streifen chirurgischer Gaze mit auf einem Organ angeordneten Sensorkomponenten, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 veranschaulicht exemplarische Komponenten eines Bildgebungssystems und eines Positionsermittlungssystems, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 zeigt exemplarische Komponenten eines Computertomographie- oder 3D-Röntgenbildgebungssystems und eines Positionsermittlungssystems, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 5 veranschaulicht exemplarische Schritte zur Verwendung eines Positionsermittlungssystems, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
  • 6 zeigt exemplarische Schritte zur Verwendung eines Positionsermittlungssystems, gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die vorliegende Erfindung betrifft dynamische Referenzierung innerer Organe für bildgebend geführte chirurgische Verfahren. Insbesondere nutzt die vorliegende Erfindung ein anpassbares oder anschmiegsames Element oder Substrat, z. B. Gaze oder einen biokompatiblen Kunststoff, das mit einer oder mehreren Verfolgungsvorrichtungen versehen ist. Das anpassbare Substrat ist dazu eingerichtet, auf oder in der Nähe eines inneren interessierenden Organs angebracht zu werden, so dass sich eine Bewegung des Organs in Verbindung mit akquirierten Bildern oder Bilddaten verfolgen lässt. Insbesondere wird die Bewegung der Verfolgungsvorrichtungen in einem Ausführungsbeispiel unter Verzicht auf den Einsatz von anatomischen oder Bezugsmarkierungen automatisch mit den Bilddaten zur Deckung gebracht. In dieser Weise kann ein bildgebend geführter chirurgischer Eingriff mittels der dynamischen Referenzdaten ausgeführt werden, die unter Verwendung des Substrats akquiriert wurden. Da das Substrat der interessierenden Anatomie zugeordnet werden kann, ohne an einem Knochengewebe fixiert zu sein, kann sich die vorliegende Erfindung für den Einsatz in Zusammenhang mit perkutanen Verfahren eignen, die an inneren Organen durchgeführt werden, die sich möglicherweise bewegen oder bewegt werden und sind nicht in der Nähe eines geeigneten skeletalen Ankers befinden. Zu Beispielen solcher Organe gehören, jedoch ohne darauf beschränken zu wollen, Leber, Lunge, Nieren, Pankreas, Blase, und so fort.
  • Beispielsweise ist mit Bezug auf 1 ein biokompatibles Substrat 10 dargestellt, das für die Anbringung in Nähe oder an einem interessierenden Organ geeignet ist. In einem Ausführungsbeispiel ist das Substrat 10 ein anpassbarer Streifen chirurgischer Gaze 20, der beliebige Abmessungen oder Formen aufweisen kann. Das Substrat 10 ist mit drei oder mehr Sensorelementen 16 versehen, die in einem Ausführungsbeispiel genutzt werden können, um Positionsdaten zu akquirieren, die sich auf das Substrat 10 beziehen. In der Tat ist es in gewissen Ausführungsbeispielen möglicherweise erwünscht, mehr als drei Sensorelemente 16 zu verwenden, da eine höhere Anzahl von Sensorelementen 16 im Allgemeinen mehr Punkte vorsehen wird, die die Fläche eines Organs definieren, auf dem das Substrat angeordnet ist. Mit anderen Worten, die Zahl von auf dem Substrat 10 vorgesehenen Sensorelementen 16 ist im Allgemeinen proportional zu der Größenordnung der Fläche oder von Anpassungsdetails, die durch das Substrat 10 nach Anordnung auf einem Organ bereitgestellt werden.
  • In dem dargestellten Ausführungsbeispiel ist außerdem ein leitendes Element 18 vorgesehen, das geeignet ist, um in Anwendungen, bei denen die Sensorelemente elektrisch betrieben werden, die Sensorelemente 16 mit Strom zu versorgen. In einem Ausführungsbeispiel, bei dem das Substrat 10 ein Streifen chirurgischer Gaze ist, kann das leitende Element 18 durch das gewöhnlich an chirurgischer Gaze vorhandene blaue Ende verlaufen. In solchen Ausführungsbeispielen kann das blaue Ende mit Barium durchtränkt werden, so dass die Gaze sich mittels auf Röntgenstrahlung basierender Bildgebungstechniken ohne weiteres lokalisieren lässt.
  • Das exemplarische Substrat 10 ist in 2 gezeigt, wie es an einem inneren Organ 24 (hier als eine Leber gezeigt) angeordnet ist. Das Substrat 10 kann an dem inneren Organ 24 im Rahmen eines offenen chirurgischen Verfahrens angebracht werden, bei dem das innere Organ 24 freigelegt wird. In einer Ab wandlung kann das Substrat 10 unter Einsatz eines mikroinvasiven Schnitts mittels laparoskopischer chirurgischer Techniken an dem inneren Organ 24 angebracht werden. Beispielsweise kann das Substrat 10 in derartigen laparoskopischen Durchführungen unter Verwendung laparoskopischer Techniken in aufgerollter oder gefalteter Gestalt durch einen geringfügigen Schnitt eingeführt, zu dem Ort des inneren Organs manövriert und an oder in Nähe des inneren Organs 24 entrollt oder entfaltet werden. Beispielsweise kann eine laparoskopische Beförderung mittels eines zur Beförderung eines Gazestreifens 20 geeigneten Katheters erreicht werden.
  • In einem Ausführungsbeispiel gleicht sich das Substrat 10, unabhängig von der Art seiner Befestigung an dem inneren Organs 24 oder in dessen Nähe, der Form des inneren Organs 24 dort an, wo das Substrat 10 das innere Organ 24 bedeckt. Beispielsweise kann das Substrat 10 in einem Ausführungsbeispiel ein Streifen chirurgischer Gaze 20 sein, die an dem inneren Organ 24 aufgrund der auf der Oberfläche des inneren Organs 24 vorhandenen Oberflächenspannung von Fluiden haftet. Eine solche Adhäsion kann unterstützt oder verbessert werden, indem der Oberfläche des inneren Organs 24 physiologische Kochsalzlösung oder sonstige geeignete Fluide hinzugefügt werden. In Ausführungsbeispielen, bei denen das Substrat 10 anpassbar ist, beispielsweise, wo das Substrat 10 ein Gazestreifen 20 ist, entspricht die durch das anpassbare Substrat 10 angenommene Form im Allgemeinen der entsprechende Oberfläche des inneren Organs an jener Position. Darüber hinaus kann das anpassbare Substrat 10 in einem solchen Ausführungsbeispiel auf einem Bereich des inneren Organs 24 angeordnet sein, der eine ausreichende Krümmung aufweist, so dass sich der Bereich durch die Sensorelemente 16, wie weiter unten erläutert, eindeutig identifizieren lässt.
  • In Ausführungsbeispielen, bei denen das innere Organ 24 (beispielsweise die dargestellte Leber) sich während der Atmung im Wesentlichen als ein starrer Körper bewegt, wird sich das an dem inneren Organs 24 oder in dessen Nähe angeordnete Substrat 10 mit dem inneren Organ 24 mitbewegen. Darüber hinaus wird das Substrat 10 in dem Maße, wie es sich an das innere Organ 24 anpasst, Konformationsänderungen des inneren Organs 24 wiedergeben, d. h., das Substrat 10 wird, falls das innere Organ seine Form verändert, sich an das innere Organ 24 anpassen und wird sich somit hinsichtlich der veränderten Gestalt des inneren Organs 24 verformen. Da sich das Substrat 10 mit dem inneren Organ 24 mitbewegen und sich an dieses anpassen wird, kann das Substrat 10 als ein dynamischer Bezugspunkt hinsichtlich des inneren Organs 24 dienen. Daher kann ein chirurgisches Verfahren, z. B. die (beispielsweise mit einer verfolgten Nadel 30 durchgeführte) chirurgische Entfernung einer Läsion 26 unter Verwendung laparoskopischer oder offener Operationstechniken mittels bildgebend geführter Navigation unter Verwendung von Positions- oder Bewegungsdaten ausgeführt werden, die durch die auf dem Substrat 10 integrierten Sensorelemente 16 gewonnen wurden.
  • Typischerweise sind die Sensorelemente 16 nicht in einer linearen oder symmetrischen Anordnung vorgesehen, d. h. die Sensorelemente 16 bilden nicht eine einzelne Zeile, so dass es möglich ist, die entsprechende Sensorelemente 16 anhand ihrer bekannten räumlichen Beziehungen voneinander zu unterscheiden. Beispielsweise sind in dem dargestellten exemplarischen Ausführungsbeispiele nach 1 und 2 die Sensorelemente 16 in einer 3×5-Matrix vorgesehen, so dass die Gesamtheit der von den Sensorelementen 16 empfangenen Daten verwendet werden kann, um die entsprechenden Sensorelemente 16 voneinander zu unterscheiden.
  • In einem Ausführungsbeispiel sind die Sensorelemente 16 als elektromagnetische (EM) Mikrosensoren vorgesehen, die in dem Substrat 10 integriert sind oder daran sicher haftend angebracht sind. Solche EM-Mikrosensoren können als entweder hohle oder kompakte Sensorspulen vorgesehen sein, die elektromagnetische Felder erzeugen. Exemplarische kompakte elektromagnetische Spulen können mit einem Durchmesser von etwa 0,75 mm (oder größer) und einer Länge von etwa 2 mm (oder größer) ausgebildet sein. Desgleichen können exemplarische hohle elektromagnetische Spulen einen Durchmesser von etwa 2 mm (oder größer) und eine Länge von etwa 2 mm (oder größer) aufweisen. Solche massiven oder hohlen elektromagnetischen Spulen können eine Genauigkeit des räumlichen Verfolgens mit einem Abweichungsfehler von weniger als etwa 1 mm im quadratischen Mittel (QMW) aufweisen. Ferner lässt sich jede Sensorspule hinsichtlich ihrer Position mit dieser Genauigkeit über ein für das hier beschriebene bildgebend geführte Verfahren ausreichendes Volumen hinweg, d. h. innerhalb des Sichtfelds eines medizinischen Bildgebungssystems, verfolgen.
  • In Ausführungsbeispielen, die derartige elektromagnetische Spulen verwenden, kann jede EM-Sensorspule Daten erzeugen, die die Orientierung der entsprechenden Spule in zwei Richtungen kennzeichnen. In einem Ausführungsbeispiel ist eine einzelne Spule jedoch nicht in der Lage, ausreichende Daten zu liefern, um das Rollen der entsprechenden Spule zu bestimmen, da die Spulen achsensymmetrisch sind. Daher weist jede Spule in einem solchen Ausführungsbeispiel fünf Freiheitsgrade auf. Falls mindestens zwei derartige Spulen in einer Vorrichtung wie dem Substrat 10 kombiniert sind oder darauf integriert sind, so dass die Spulen eine bekannte und feststehende Beziehung zueinander aufweisen, lassen sich sechs Freiheitsgrade (x, y, z, Rollen, Nicken, Gieren) anhand der von den beiden oder mehreren Spulen gewonnenen, gesammelten oder zusammenge führten Daten bestimmen. Auf diese Weise können die durch die elektromagnetischen Spulen erzeugten elektromagnetischen Felder somit genutzt werden, um die Position und Orientierung des Substrats 10 zu bestimmen, auf dem sie integriert sind. Beispielsweise ermöglichen in dem in 1 und 2 dargestellten Ausführungsbeispiel die an dem Substrat 10 angebrachten Sensorelemente 16 (von denen in diesem Beispiel angenommen wird, dass es elektromagnetische Spulen sind) es, die Position, Orientierung und Konformation (d. h. Form) des Substrats 10 auf der Grundlage der durch die elektromagnetischen Spulen erzeugten elektromagnetischen Felder zu ermitteln.
  • Wie oben beschrieben, kann ein Substrat 10 gemäß der vorliegenden Erfindung dafür eingesetzt werden, bildgebend geführte invasive Verfahren zu ermöglichen. Es ist klar, dass in der vorliegenden Erfindung eine beliebige, für den Einsatz in einem bildgebend geführten chirurgischen Verfahren geeignete Bildgebungsmodalität verwendet werden kann. Zu Beispielen solcher Bildgebungsmodalitäten gehören auf Röntgenstrahlung basierende Bildgebungstechniken, die die unterschiedliche Schwächung von Röntgenstrahlen nutzen, um Bilder zu erzeugen (beispielsweise dreidimensionale Röntgendurchleuchtung, Computertomographie (CT), Tomosynthesetechniken und sonstige auf Röntgenstrahlung basierende Bildgebungstechnologien). Zu anderen exemplarischen Bildgebungsmodalitäten, die für bildgebend geführte chirurgische Verfahren geeignet sind, können Magnetresonanzbildgebung (MRI), Ultraschall- oder thermoakustische Bildgebungstechniken und/oder optische Bildgebungstechniken gehören. Desgleichen können auch nuklearmedizinische Bildgebungstechniken (beispielsweise Positronenemissionstomographie (PET) oder Einzelpositronenemissionscomputertomographie (SPECT)), die Radiopharmazeutika nutzen, geeignete Bildgebungstechnologien sein, um bildgebend geführte chirurgische Verfahren durchzuführen. In ähnlicher Weise können sich auch kombinierte Bildgebungssysteme, z. B. PET/CT-Systeme, für die Durchführung bildgebend geführter chirurgischer Verfahren, wie im Vorliegenden beschrieben, eignen. Folglich sollte über die gesamte vorliegende Erörterung hinweg beachtet werden, dass die vorliegenden Techniken im Allgemeinen von dem zur Akquisition der Bilddaten verwendeten System bzw. der Bildgebungsmodalität unabhängig sind. D. h., die Technik kann auf gespeicherte unverarbeitete, verarbeitete oder teilweise verarbeitete Bilddaten aus einer beliebigen geeigneten Quelle angewandt werden.
  • Indem nun auf 3 eingegangen wird, ist beispielsweise ein Überblick eines exemplarischen verallgemeinerten Bildgebungssystems 34 dargestellt, das stellvertretend für vielfältige Bildgebungsmodalitäten sein kann. Das verallgemeinerte Bildgebungssystem 34 enthält gewöhnlich eine beliebige Bauart eines Bildwandlers 36, der Signale erfasst und diese in nützliche Daten umwandelt. Wie weiter unten eingehender beschrieben, kann der Bildwandler 36 zum Erzeugen der Bilddaten nach vielfältigen physikalischen Prinzipien arbeiten. Im Allgemeinen werden jedoch durch den Bildwandler 36 Bilddaten, die im Körper eines Patienten 38 vorhandene interessierende Bereiche kennzeichnen in einem digitalen Medium erzeugt, um in dem bildgebend geführten chirurgischen Verfahren genutzt zu werden.
  • Der Bildwandler 36 kann durch einen Systemsteuerungsschaltkreis 40 betrieben werden, der vielfältige Aspekte des Bildwandlerbetriebs und der Akquisition und Verarbeitung der Bilddaten sowie der mittels der vorliegende Erfindungen akquirierten dynamischen Referenzdaten steuert. In dem dargestellten verallgemeinerten Ausführungsbeispiel enthält der Systemsteuerungsschaltkreis 40 einen für den Betrieb des Bildwandlers 36 geeigneten Bewegungs- und Steuerschaltkreis 42. Beispielsweise kann der Bewegungs- und Steuerschaltkreis 42 auf Strahlungsquellensteuerschaltkreisen, Zeitsteuerschaltkreisen, Schaltkreisen zum Koordinieren der Relativbewegung des Bildwandlers 36 (beispielsweise in Bezug auf einen Patiententisch und/oder eine Detektoranordnung), und so fort basieren. Der Bildwandler 36 kann nach dem Erfassen der Bilddaten oder Signale die Signale, z. B. für eine Umwandlung in digitale Werte, verarbeiten und er leitete die Daten an eine Datenakquisitionsschaltung 44 weiter. Im Falle digitaler Systeme kann die Datenakquisitionsschaltung 44 vielfältige anfängliche Verarbeitungsfunktionen durchführen, z. B. Einstellen digitaler Dynamikbereiche, Glätten oder Schärfen von Daten, sowie, wo gewünscht, Kompilieren von Datenströmen und Dateien. Die Daten werden anschließend zu einer Datenverarbeitungsschaltung 46 übertragen, wo eine zusätzliche Verarbeitung und Analyse durchgeführt werden. Für die verfügbaren unterschiedlichen digitalen Bildgebungssysteme kann die Datenverarbeitungsschaltung 46 wesentliche Rekonstruktionen und/oder Analysen von Daten, Klassierung von Daten, Schärfen, Glätten, Merkmalerkennung, und so fort durchführen.
  • Zusätzlich zur Verarbeitung der Bilddaten kann die Verarbeitungsschaltung 46 außerdem Bewegungs- oder Positionsdaten empfangen und verarbeiten, die einen anatomischen interessierenden Bereich betreffen, z. B. das dargestellte innere Organ 24 und/oder eine Läsion 26, die über eine offene chirurgische Inzision 48 oder einen laparoskopischen chirurgischen Eingang zugänglich sind. In dem dargestellten Ausführungsbeispiel ist an dem (hier als die Leber des Patienten 38 dargestellten) inneren Organ 24 ein Substrat 10 angeordnet. Das Substrat 10 ist, wie oben erörtert, mit zahlreichen (beispielsweise drei oder mehr) Sensorelementen 16 (siehe 1 und 2) versehen, die dazu eingerichtet sind, Positionsdaten zu liefern. In einem Ausführungsbeispiel sind die Sensorelemente 16 elektromag netische Spulen, die sämtliche dazu eingerichtet sind, ein deutlich abgegrenztes und unterscheidbares elektromagnetisches Feld zu erzeugen. In speziellen Ausführungsbeispielen, bei denen die Sensorelemente 16 mit Strom betrieben werden, können die Sensorelemente 16, z. B. über einen oder mehrere elektrisch leitende Drähte 50, mit einem geeigneten Kraftstromkreis 52, z. B. einer elektrischen Spannungsquelle oder einem Spannungsausgang, oder einer geeigneten Batterie, verbunden sein. Während der Kraftstromkreis 52 in dem dargestellten Ausführungsbeispiel als von dem Systemsteuerungsschaltkreis 40 getrennt dargestellt ist, kann der Kraftstromkreis 52 in weiteren Ausführungsbeispielen Teil des Systemsteuerungsschaltkreises 40 sein.
  • In dem dargestellten Ausführungsbeispiel werden die durch die Sensorelemente 16 erzeugten Signale oder Felder durch eine oder mehrere Antennen 54 erfasst. Die erfassten Positionsdaten werden an einen Empfängerschaltkreis 56 ausgegeben oder von diesem akquiriert, der die Positionsdaten seinerseits an die Verarbeitungsschaltung 46 ausgibt. Wie weiter unten eingehender beschrieben, können die Positionsdaten in Verbindung mit den Bilddaten genutzt werden, um ein bildgebend geführtes Verfahren zu erleichtern. In noch einem Ausführungsbeispiel werden die Antennen 54 nicht zur Detektion sondern zur Übertragung verwendet, d. h. die Antennen 54 sind Sender und erzeugen elektromagnetische Felder, die durch die Sensorelemente 16 erfasst werden. In beiden Ausführungsbeispielen lassen sich Positionsdaten in einer ausreichenden Auflösung ermitteln, um die Bewegung und/oder Stellung des zu verfolgenden Organs zu erlauben.
  • Die verarbeiteten Bilddaten und/oder Positionsdaten können zu einer Displayschaltung 60 weitergeleitet werden, um zur Einsicht und Analyse auf einem Monitor 62 wiedergegeben zu werden. Während an den Bilddaten vor der Betrachtung Arbeitsschritte ausgeführt werden können, dient der Monitor 62 zu einem gewissen Zeitpunkt dazu, um von den gesammelten Bilddaten abgeleitete, rekonstruierte Bilder zu betrachten. Die Bilder können auch in Kurz- oder Langzeitspeichereinrichtungen gespeichert werden, die mit Blick auf das Bildgebungssystem 34 lokal sein können, z. B. sich in dem Systemsteuerungsschaltkreis 40 befinden können, oder von dem Bildgebungssystem 34 entfernt, z. B. in Bildarchivierungskommunikationssystemen, angeordnet sein können. Die Bilddaten können außerdem, beispielsweise über ein Netzwerk, zu entfernt angeordneten Orten übertragen werden.
  • Zur Vereinfachung der Darstellung sind gewisse Teile der oben erörterten Schaltung, z. B. der Bewegungs- und Steuerschaltkreis 42, die Datenakquisitionsschaltung 44, die Verarbeitungsschaltung 46 und die Displayschaltung 60 als ein Teil des Systemsteuerungsschaltkreises 40 dargestellt und erörtert. Eine derartige Darstellung und Erörterung dient jedoch nur dem Zweck der Veranschaulichung und soll lediglich eine von mehreren möglichen Anordnungen dieser Schaltung in einer leicht verständlichen Weise beispielhaft darstellen. Dem Fachmann wird klar sein, dass die dargestellte Schaltung in weiteren Ausführungsbeispielen in anderen Anordnungen und/oder an anderen Positionen vorgesehen sein kann. Beispielsweise können gewisse Schaltkreise in verschiedenen prozessorgestützten Systemen oder Workstations oder als integrale Bestandteile vorgesehen sein, die anderen Strukturen, z. B. Bildgebungsworkstations, Systemsteuerungspaneelen, und so fort hinzugefügt sind, die funktionsmäßig Daten austauschen, um die im Vorliegenden beschriebenen Techniken zu verwirklichen.
  • Der Betrieb des Bildgebungssystems 34 kann durch eine Bedienperson über eine Benutzerschnittstelle 52 gesteuert wer den, die vielfältige Benutzereingabeeinrichtungen aufweisen kann, beispielsweise eine Maus, eine Tastatur, einen Touch-Screen, und so fort. Eine derartige Benutzerschnittstelle kann dazu eingerichtet sein, wie dargestellt, Eingangssignale und Steuerbefehle an den Systemsteuerungsschaltkreis 40 auszugeben. Darüber hinaus ist zu beachten, dass mehr als nur eine Benutzerschnittstelle 52 vorgesehen sein kann. Dementsprechend kann ein Bildgebungsscanner oder eine Arbeitsstation eine Schnittstelle aufweisen, die ein Einstellen der an dem Bilddatenakquisitionsverfahren beteiligten Parameter erlaubt, wohingegen eine andere Benutzerschnittstelle für die Bearbeitung, Verfeinerung und Betrachtung von sich ergebenden rekonstruierten Bildern vorgesehen sein kann.
  • Um die Erfindung näher zu erläutern, ist in 4 eine im Allgemeinen auf der in 3 erläuterten Architektur des Gesamtsystem basierende spezielle medizinische Bildgebungsmodalität dargestellt, die im Wesentlichen ein auf Röntgenstrahlung basierendes System 70 repräsentiert. Es ist zu beachten, dass die vorliegende Erfindung, während in 4 auf ein auf Röntgenstrahlung basierendes System Bezug genommen wird, wie oben erörtert, auch andere Bildgebungsmodalitäten einschließt, z. B. MRI, PET, SPECT, Ultraschall, und so fort.
  • In dem dargestellten Ausführungsbeispiel veranschaulicht 4 schematisch ein auf Röntgenstrahlung basierendes Bildgebungssystem 70 zum Akquirieren und Verarbeiten von Bilddaten. In dem dargestellten Ausführungsbeispiel ist ein Bildgebungssystem 70 ein Computertomographie-(CT)-System oder ein 3D-Röntgenbildgebungssystem, das dazu eingerichtet ist, Röntgenprojektionsdaten zu akquirieren, um die Projektionsdaten zu einem zwei- oder dreidimensionalen Bild zu rekonstruieren und das Bild für eine Anzeige auf einem Display und ein Analyse gemäß der vorliegenden Erfindung zu verarbeiten. In dem in 4 veranschaulichten Ausführungsbeispiel, enthält das auf Röntgenstrahlung basierende Bildgebungssystem 70 eine benachbart zu einem Kollimator 74 angeordnete Röntgenstrahlenquelle 72. Die Röntgenstrahlenquelle 72 kann auf einer standardmäßigen Röntgenröhre oder auf einer oder mehreren monolithischen Röntgenstrahlenquellen basieren.
  • In dem dargestellten Ausführungsbeispiel erlaubt der Kollimator 74 einem Strahlungsbündel 76 in einen Bereich zu gelangen, in dem ein Patient, z. B. der Patient 38, positioniert ist. Das Strahlungsbündel 76 kann in Abhängigkeit von der Konfiguration der Detektormatrix sowie des gewünschten Verfahrens der Datenakquisition im Wesentlichen fächerförmig oder konusförmig geformt sein. Ein Teil der Strahlung 78 durchquert den Patienten 38 oder verläuft an diesem vorbei und fällt auf eine im Allgemeinen mit Bezugszeichen 80 dargestellte Detektormatrix. Detektorelemente der Matrix erzeugen elektrische Signale, die die Intensität des einfallenden Röntgenstrahls kennzeichnen. Die durch die Detektormatrix 80 erzeugten Signale können anschließend verarbeitet werden, um eine visuelle Darstellung (d. h. ein Bild oder eine volumetrische Darstellung) der Merkmale im Innern des Patienten 38 zu rekonstruieren. Beispielsweise können Bilder des inneren Organs 24 in dem dargestellten Ausführungsbeispiel rekonstruiert werden.
  • Vielfältige Konfigurationen des Detektors 80 können in Verbindung mit den hier beschriebenen Techniken verwendet werden. Beispielsweise kann der Detektor 80 ein mehrzeiliger Detektor sein, beispielsweise ein acht oder sechzehn Zeilen von Detektorelementen aufweisender Detektor, der einen begrenzten longitudinalen Überstreichungsbereich des gescannten Objekts bzw. des Patienten erreicht. In ähnlicher Weise kann der Detektor 80 ein Flächendetektor sein, beispielsweise ein Hunderte von Zeilen von Detektorelementen aufweisender, hochauflö sender radiographischer Detektor, der ein Positionieren des abzubildenden gesamten Objekts oder Organs innerhalb des Sichtfelds des Systems 70 ermöglicht. Unabhängig von der Konfiguration gestattet der Detektor 80 eine Akquisition und/oder Messung der in der Bildrekonstruktion des inneren Organs 24 verwendeten Daten.
  • Die Quelle 72 wird durch einen Systemcontroller 84 gesteuert, der sowohl Leistungs- als auch Steuersignale für Untersuchungsvorgänge bereitstellt. Darüber hinaus ist der Detektor 80 an den Systemcontroller 84 angeschlossen, der die Akquisition der in dem Detektor 80 erzeugten Signale steuert. Der Systemcontroller 84 kann außerdem unterschiedliche Signalverarbeitungs- und Filterfunktionen, z. B. für ein anfängliches Einstellen von Dynamikbereichen, Verschachteln digitaler Bilddaten, und so fort ausführen. Im Allgemeinen steuert der Systemcontroller 84 den Betrieb des Bildgebungssystems 70, um Untersuchungsprotokolle auszuführen, und um akquirierte Daten zu verarbeiten. Im vorliegenden Zusammenhang enthält der Systemcontroller 84 ferner eine gewöhnlich auf einem universellen oder anwendungsspezifischen digitalen Rechner basierende Signalverarbeitungsschaltung, zugeordnete Speicherschaltungen zum Speichern von Programmen und Routinen, die durch den Computer ausgeführt werden (beispielsweise Programme und Routinen zur Durchführung der vorliegenden Erfindung), sowie Konfigurationsparameter und Bilddaten, Interfaceschaltkreise, und so fort.
  • In dem in 4 veranschaulichten Ausführungsbeispiel ist der Systemcontroller 84 mit einem Linearpositionierungssubsystem 86 und einem Rotationssubsystem 88 verbunden. Das Rotationssubsystem 88 gestattet es, die Röntgenstrahlenquelle 72, den Kollimator 74 und den Detektor 80 ein oder mehrere Male um den Patienten 38 rotieren zu lassen. Es ist zu beachten, dass das Rotationssubsystem 88 eine Gantry- oder C-Arm-Vorrichtung enthalten könnte. Der Systemcontroller 84 kann somit verwendet werden, um die Gantry oder den C-Arm zu steuern. Das Linearpositionierungssubsystem 86 ermöglicht es gewöhnlich, eine Patientenstütze, beispielsweise einen Tisch, auf dem der Patient ruht, linear zu verschieben. Auf diese Weise kann der Patiententisch bezüglich der Gantry oder des C-Arms linear bewegt werden, um Bilder von speziellen Bereichen des Patienten 38 zu erzeugen.
  • Darüber hinaus kann die Strahlungsquelle 72, wie für den Fachmann ersichtlich, durch einen in dem Systemcontroller 84 angeordneten Röntgenstrahlcontroller 90 geregelt/gesteuert werden. Insbesondere kann der Röntgenstrahlcontroller 90 dazu eingerichtet sein, Leistungs- und Zeittaktsignale an die Röntgenstrahlenquelle 72 auszugeben. Ferner kann in dem Systemcontroller 84 ein Antriebscontroller 92 integriert sein und dazu verwendet werden, die Bewegung des Rotationssubsystems 88 und des Linearpositionierungssubsystems 86 zu steuern.
  • Weiter ist der Systemcontroller 84 außerdem unter Einbeziehung eines Bilddatenakquisitionssystems 94 veranschaulicht. In diesem Ausführungsbeispiel ist der Detektor 80 an den Systemcontroller 84, und insbesondere an das Bilddatenakquisitionssystem 94 angeschlossen. Das Bilddatenakquisitionssystem 94 nimmt Daten auf, die durch eine Ausleseelektronik des Detektors 80 gesammelt sind. Das Bilddatenakquisitionssystem 94 nimmt gewöhnlich von dem Detektor 90 stammende abgetastete analoge Signale auf und wandelt die Daten in digitale Signale um, um diese anschließend durch eine Verarbeitungsschaltung 96 zu verarbeiten, die beispielsweise auf einem oder mehreren Prozessoren eines universellen oder anwendungsspezifischen Computers basieren kann.
  • Wie dargestellt, enthält der Systemcontroller 84 ferner ein Positions-/Orientierungsdatenakquisitionssystem 100, das dazu eingerichtet ist, von einer oder mehreren Antennen 102 Positions- und Orientierungsdaten zu akquirieren. In dem dargestellten Ausführungsbeispiel erfassen die eine oder die mehreren Antennen 102 Signale und/oder Felder, die durch Sensorelemente 16 auf einem Substrat 10 erzeugt werden, das an dem einer Bildgebung unterworfenen inneren Organ 24 angeordnet ist. Das Positions-/Orientierungsdatenakquisitionssystem 100 verarbeitet von den Antennen 102 her akquirierte Signale, um Positions- und/oder Orientierungsdaten zu erzeugen, die das Substrat 10 betreffen, das das innere Organ 24 repräsentiert. Die durch das Positions-/Orientierungsdatenakquisitionssystem 100 erzeugten Positions- und/oder Orientierungsdaten können an die Verarbeitungsschaltung 96 und/oder einen Arbeitsspeicher 98 zur anschließenden Verarbeitung ausgegeben werden.
  • Die Verarbeitungsschaltung 96 ist gewöhnlich mit dem Systemcontroller 84 verbunden. Die durch das Bilddatenakquisitionssystem 94 und/oder durch das Positions-/Orientierungsdatenakquisitionssystem 100 gesammelten Daten können an die Verarbeitungsschaltung 96 übertragen werden, um anschließend verarbeitet und visuell rekonstruiert zu werden. Die Verarbeitungsschaltung 96 kann einen Arbeitsspeicher 98 enthalten (oder mit einem solchen Daten austauschen), der in der Lage ist, durch die Verarbeitungsschaltung 96 verarbeitete Daten oder durch die Verarbeitungsschaltung 96 zu verarbeitende Daten zu speichern. Es ist selbstverständlich, dass ein derartiges exemplarisches System 70 eine beliebige Bauart einer rechnerzugänglichen Speichereinrichtung verwenden kann, die in der Lage ist, die gewünschte Menge von Daten und/oder Programmcode zu speichern. Darüber hinaus kann der Arbeitsspeicher 98 eine oder mehrere gegenüber dem System 70 möglicherweise lokal und/oder entfernt angeordnete Speichereinrichtungen, z. B. mag netische oder optische Vorrichtungen, ähnlicher oder unterschiedlicher Bauarten enthalten. Der Arbeitsspeicher 98 kann Daten, Verarbeitungsparameter und/oder Computerprogramme speichern, die eine oder mehrere Programmroutinen beinhalten, um die hier beschriebenen Prozesse durchzuführen.
  • Die Verarbeitungsschaltung 96 kann geeignet konstruiert sein, um Merkmale, d. h. Scanvorgänge und Datenakquisition, zu steuern, die durch den Systemcontroller 84 aktiviert werden. Beispielsweise kann die Verarbeitungsschaltung 96 dazu eingerichtet sein, von einem Anwender Steuerbefehle und Scanparameter über eine Bedienerschnittstelle 106 aufzunehmen, die gewöhnlich mit einer Tastatur und sonstigen Eingabegeräten ausgerüstet ist (nicht gezeigt). Eine Bedienperson kann dadurch das System 70 über die Eingabegeräte steuern. Ein mit der Bedienerschnittstelle 106 verbundenes Display 108 kann verwendet werden, um eine rekonstruierte visuelle Darstellung zu beobachten. Darüber hinaus kann das rekonstruierte Bild auch auf einem möglicherweise mit der Bedienerschnittstelle 106 verbundenen Drucker 110 ausgedruckt werden. Es ist klar, dass mit dem System 70 eine oder mehrere Bedienerschnittstellen 106 zum Ausgeben von Systemparametern, Anfordern von Untersuchungen, Betrachten von Bildern, und so fort, verbunden sein können. Im Allgemeinen können Anzeigeschirme, Drucker, Workstations und innerhalb des Systems vorgesehene vergleichbare Vorrichtungen in der Nähe der Datenakquisitionskomponenten angeordnet sein oder können entfernt von diesen Komponenten, z. B. innerhalb einer Institution oder Klinik an einer anderen Stelle, oder über ein oder mehrere konfigurierbare Netzwerke, z. B. das Internet, virtuelle private Netze, und so fort, mit dem Bildakquisitionssystem verbunden an einem vollkommen anderen Ort angeordnet sein.
  • Die Verarbeitungsschaltung 96 kann auch mit einem Bildarchivierungs- und Datenkommunikationssystem (PACS = Picture Archiving and Communications System) 112 verbunden sein. Durch die Verarbeitungsschaltung 96 erzeugte oder verarbeitete Bilddaten können an das PACS 112 übertragen und darauf gespeichert werden, um anschließend verarbeitet oder durchgesehen zu werden. Es ist zu beachten, dass das PACS 112 mit einem entfernt angeordneten Client 114, einem Informationssystem einer radiologischen Abteilung (RIS = Radiology Department Information System), einem klinischen Datenkommunikationssystem (HIS = Hospital Information System) oder einem internen oder externen Netzwerk verbunden sein könnte, so dass weitere Personen an unterschiedlichen Orten auf die Bilddaten zugreifen können.
  • Die oben beschriebenen Systeme und Vorrichtungen können, wie im Vorliegenden beschrieben, verwendet werden, um eine dynamische Referenzierung für einen Bereich eines Patienten vorzusehen, der einem invasiven Verfahren, beispielsweise einem offenen oder laparoskopischen chirurgischen Verfahren, unterworfen wird. In einem Ausführungsbeispiel können dynamisch akquirierte Positions- und Orientierungsdaten unter Verwendung des Substrats 10 und der zugeordneten Sensorelemente 16 für den Bereich des Patienten akquiriert werden, und die Daten können automatisch mit parallel oder zuvor akquirierten Bilddaten ohne den Einsatz von anatomischen oder Bezugsmarkierungen zur Deckung gebracht werden. Somit kann das chirurgische Verfahren auf der Grundlage der dynamisch referenzierten visuellen Darstellung ausgeführt oder geführt werden.
  • Beispielsweise sind mit Bezug auf 5 exemplarische Schritte vorgesehen, die einer Verwirklichung der vorliegenden Erfindung entsprechen. In der in 5 dargestellten Ausführungsform werden die Bilddaten 122 vor dem invasiven Verfahren akquiriert (Block 120). Wie oben erwähnt, können die Bilddaten 122 mittels eines oder mehrerer geeigneter Bildgebungsmodalitäten, z. B. dreidimensionaler Röntgendurchleuchtung, CT, MRI, und so fort, akquiriert werden. In dem dargestellten Ausführungsbeispiel werden die Bilddaten 122 verwendet, um eine oder mehrere visuelle Zeichnungen, z. B. Bilder oder Volumina 126, des inneren Organs 24 (siehe 2) oder des interessierenden Bereichs zu erzeugen (Block 124).
  • Die Bilder oder Volumina 126 sind (Block 128) in dem dargestellten Ausführungsbeispiel segmentiert, um eine oder mehrere segmentierte Regionen 130 zu schaffen. Ein derartiges Segmentierungsverfahren identifiziert gewöhnlich Pixel oder jene Abschnitte eines Bildes, die gemeinsame Strukturen, z. B. Organe oder Gewebe, repräsentieren. Beispielsweise kann ein Segmentierungsverfahren (beispielsweise durch Änderungen der Intensität oder sonstiger Schwellwertkriterien) Flächen oder Begrenzungen identifizieren, die ein Organ oder Gewebe definieren. Auf diese Weise ist es möglich, sämtliche jener Pixel, die entsprechende Organe oder Gewebe, Abschnitte solcher Organe oder Gewebe, oder gegenüber solchen Organen oder Geweben unmittelbar benachbarte oder damit verbundene Regionen darstellen, zu identifizieren und voneinander zu unterscheiden, was es erlaubt, lediglich diejenigen Abschnitte eines Bildes zu verarbeiten oder zu analysieren, die den interessierenden Organen oder Geweben zugeordnet sind.
  • Die Bilder oder Volumina 126 können mittels bekannter Segmentierungstechniken, z. B. Intensitäts- und/oder Volumenschwellwertoperation, Konnektivitätsgruppierung, und so fort, segmentiert werden. In einem Ausführungsbeispiel erlaubt es die Segmentation, das Organ, Gewebe oder den interessierenden Bereich geometrisch nachzuahmen. In einem Ausführungsbeispiel entspricht der segmentierte Bereich dem inneren Organ 24 oder einer sonstigen Struktur, auf der das Substrat 10 (siehe 1 und 2) für eine dynamische Referenzierung angeordnet ist. Während die dargestellten Schritte ein Ausführungsbeispiel beschreiben, in dem anhand der akquirierten Bilddaten 122 erzeugte Bilder oder Volumina 126 segmentiert werden, kann die Segmentation in weiteren Ausführungsbeispielen an den Bilddaten 122 selbst ausgeführt werden, wobei die segmentierten Bilddaten anschließend verwendet werden, um Bilder oder Volumina des inneren Organs 24 oder des interessierenden Bereichs zu erzeugen. Basierend auf dem segmentierten Bild oder Volumen des inneren Organs, d. h. dem segmentierten Bereich 130, wird ein Modell 134 des Bereichs erzeugt (Block 132), das dem inneren Organ 24 oder einem sonstigen interessierenden Bereich, wie er sich anhand des Bildgebungsvorgangs bestimmen lässt, im Wesentlichen entspricht.
  • In einigen Ausführungsbeispielen kann das Bereichsmodell 134 Bilddaten verkörpern, die mittels mehr als einer Bildgebungsmodalität akquiriert wurden. Beispielsweise kann es in einigen Ausführungsbeispielen erwünscht sein, Bilddaten zu verwenden, die sowohl von einem MRI-System als auch von einem auf Röntgenstrahlung basierenden Bildgebungssystem, beispielsweise einem dreidimensionalen Röntgendurchleuchtungssystem, abgeleitet sind. In einem solchen Ausführungsbeispiel können die durch beide Systeme akquirierten Signale, wie weiter unten erläutert, zur Deckung gebracht werden, so dass die zusammengeführten Bilder und/oder Volumina 126, der segmentierte Bereich 130 und/oder das Bereichsmodell 134 die durch die jeweilige Bildgebungsmodalität akquirierten Bilddaten enthalten/enthält oder dafür kennzeichnend sind/ist.
  • Während des an dem inneren Organ 24 (oder einem sonstigen interessierenden Bereich) durchgeführten invasiven Verfahrens wird das Substrat 10 an dem inneren Organ 24 angeordnet (Block 140). Wie oben erwähnt, weist das Substrat 10 wenigstens drei Sensorelemente 16 auf. Die Sensorelemente 16 erzeugen entsprechende Signale (beispielsweise entsprechende elektromagnetische Felder), die akquiriert (Block 142) oder gemessen werden können, um Positions- und/oder Orientierungsdaten 144 für jedes entsprechende Sensorelement 16 abzuleiten. Die Positions- und/oder Orientierungsdaten 144 können genutzt werden, um ein Referenzmodell 148 zu erzeugen (Block 146), das die Oberfläche des inneren Organs 24 repräsentiert.
  • Das aus den Positions- und/oder Orientierungsdaten 144 abgeleitete Referenzmodell 148 wird mit dem mittels des Bildgebungsvorgangs erzeugten Bereichsmodell 134 zur Deckung gebracht (Block 150). In einem Ausführungsbeispiel wird das Zurdeckungbringen des Referenzmodells 148 und des Bereichsmodells 134, z. B. mittels iterativer Techniken größter Annäherung, automatisch durchgeführt. Auf diese Weise werden die Sensorelemente 16 des Substrats 10 automatisch mit der Oberfläche des inneren Organs 24, z. B. der Leber, zur Deckung gebracht. Es ist klar, dass mit einem Wachsen der Anzahl der auf dem Substrat 10 vorhandenen Sensorelemente 16 die Robustheit und Genauigkeit des automatischen Zurdeckungbringens steigt. Darüber hinaus kann in Ausführungsbeispielen, bei denen die Sensorelemente 16 auf einem Substrat 10 integriert sind, das sich an das innere Organ 24 anpasst, eine weiche Gewebeverformung des inneren Organs 24, während sich das Substrat 10 anpasst, um eine Bewegung oder Verformung des inneren Organs 24 mitzumachen, durch die Sensorelemente 16 erfasst werden. In einem solchen Ausführungsbeispiel kann ein deformierbares Zurdeckungbringen verwendet werden, um zwischen den Sensorelementen 16 auf dem sich bewegenden oder verformenden inneren Organ 24 und den entsprechenden Bildern oder Volumina Entsprechungen zu finden. Mit anderen Worten, es kann ein deformierbares Zurdeckungbringen verwendet werden, um es zu ermöglichen, die Sensorelemente 16 mit den entsprechenden Bildern oder Volumina selbst dann zur Deckung zubringen, wenn sich das innere Organ 24 in dem Zeitraum zwischen der Akquisition der Bilddaten 122 und der Akquisition der Positions- und/oder Orientierungsdaten 144 möglicherweise bewegt oder geringfügig verformt hat.
  • Ein bildgebend geführtes invasives Verfahren kann unter Verwendung des zur Deckung gebrachten (auf den Positions- und/oder Orientierungsdaten basierenden) Referenzmodells 148 und des (auf den Bilddaten basierenden) Bereichsmodells 134 ausgeführt werden. Insbesondere können Änderungen der Positions- und/oder Orientierungsdaten, wenn die zuvor akquirierten, auf Bildgebung basierenden Daten bzw. das Modell mit den gemessenen Positions- und/oder Orientierungsdaten zur Deckung gebracht sind, genutzt werden, um Veränderungen an dem auf Bildgebung basierenden Modell visuell anzuzeigen. Mit anderen Worten, ein angezeigtes Bild des inneren Organs 24 kann auf der Grundlage der von den an dem inneren Organ 24 angeordneten Sensorelementen 16 gewonnenen, aktuellsten Positions- und/oder Orientierungsdaten aktualisiert, modifiziert, abgeändert oder in sonstiger Weise verändert werden. Auf diese Weise können die zuvor akquirierten Bilddaten, selbst wenn keine Bildgebungsvorgänge während der Operation stattfinden, aktualisiert und bearbeitet werden, um eine genaue und aktuelle Wiedergabe des dem Verfahren unterworfenen inneren Organs (oder des sonstigen inneren Bereichs) zu erzeugen.
  • Basierend auf diesem Zurdeckungbringen zwischen dem (von den Bilddaten abgeleiteten) Bereichsmodell 134 und dem (von den Sensorelementdaten abgeleiteten) Referenzmodell 148 kann ein chirurgisches Instrument während eines invasiven Verfahrens, beispielsweise eines offenen oder laparoskopischen chirurgischen Verfahrens, verfolgt werden (Block 152). Beispiele solcher chirurgischer Instrumente, die verfolgt werden können, sind Biopsienadeln, Katheter, Ablationsnadeln, Zangen, und so fort. Gewöhnlich weist das zu verfolgende chirurgische Instrument ebenfalls ein Sensorelement 16, z. B. einen EM-Sensor, auf, so dass auch für das chirurgische Instrument Positions- und/oder Orientierungsdaten akquiriert werden, wodurch es ermöglicht wird, die Position des chirurgischen Instruments in Verbindung mit dem zur Deckung gebrachten Bild des sich bewegenden und/oder verformten inneren Organs 24 auf einem Display wiederzugeben. Auf diese Weise kann ein System, wie es hier beschrieben ist, einem Benutzer die Position der chirurgischen Vorrichtung bezüglich des bewegten und/oder verformten inneren Organs 24 in Echtzeit oder weitgehend in Echtzeit auf einem Bildschirm wiedergeben.
  • Während im Vorausgehenden ein Ausführungsbeispiel beschrieben ist, bei dem das Bildgebungsverfahren vor dem chirurgischen Verfahren durchgeführt wird, wird das Bildgebungsverfahren in anderen Ausführungsbeispielen zeitgleich mit dem chirurgischen Verfahren ausgeführt. Beispielsweise sind mit Bezug auf 6 Schritte veranschaulicht, die einem weiteren Ausführungsbeispiel der vorliegenden Erfindung zugeordnet sind. In diesem Ausführungsbeispiel werden die auf einem Substrat 10 integrierten Sensorelemente 16, beispielsweise mittels eines offenen chirurgischen oder laparoskopischen Verfahrens, an dem interessierenden inneren Organ 24 angeordnet. Für die auf der Oberfläche des inneren Organs 24 angeordneten Sensorelemente 16 werden Positions- und/oder Orientierungsdaten 158 akquiriert (Block 156). Beispielsweise lassen sich in Ausführungsbeispielen, bei denen die Sensorelemente 16 elektromagnetische Signale oder Felder erzeugen, diese Signale oder Felder, z. B. mittels eines oder mehrerer Antennenfelder, wie oben beschrieben, nachweisen und/oder messen, um für jedes entsprechende Sensorelement 16 eine Position und/oder Orientierung abzuleiten.
  • In dem dargestellten Ausführungsbeispiel werden Bilddaten 122 akquiriert (Block 120) und verwendet, um ein oder mehrere Bilder und/oder Volumina 126 zu erzeugen (Block 124). Einige oder sämtliche Sensorelemente 16 werden in den Bildern und/oder Volumina 126 angeordnet (Block 162), so dass die Positionsdaten 164 für die entsprechenden Sensorelemente 16 relativ zu den Bildern/Volumina 126 gewonnen werden. In einem Ausführungsbeispiel werden die Sensorelemente 16 automatisch in den Bildern/Volumina 126 angeordnet. Beispielsweise können die Sensorelemente 16 unter Verwendung von Bildverarbeitungstechniken wie Intensitäts- und/oder Volumenschwellwertoperation, Konnektivitätsgruppierung, Matrizenabgleich, und so fort automatisch angeordnet werden. Darüber hinaus sind in einigen Ausführungsbeispielen die Positionen der Sensorelemente 16 relativ zueinander basierend auf den durch die Sensorelemente 16 erzeugten, gemessenen Signalen oder Feldern bekannt. Diese von den Sensoren abgeleiteten Positionsdaten 158 können genutzt werden, um die Sensorelemente 16 in den Bildern und/oder Volumina 126 aufzufinden.
  • Wenn einige oder sämtliche Sensorelemente 16 in den Bildern und/oder Volumina identifiziert sind, können die Positionen 164 der in den Bildern und/oder Volumina angeordneten Sensorelemente 16 mit den entsprechenden Sensorelementpositionen, wie sie anhand der Sensorpositionsdaten 158 ermittelt wurden, abgeglichen werden (Block 166). Mit anderen Worten, die in den Bildern und/oder Volumina angeordneten Sensorelemente 16 werden mit den entsprechenden, durch die Sensorelemente 16 erzeugten Sensorelementsignalen und/oder -feldern abgeglichen. In einem Ausführungsbeispiel kann dies durch den Einsatz eines asymmetrischen Musters von Sensorelementen 16 auf dem Substrat 10 erleichtert werden. In einer Abwandlung können in einem Ausführungsbeispiel ausreichend viele (d. h. vier oder mehr) Sensorelemente 16 vorgesehen sein, so dass sämtliche möglichen Übereinstimmungen permutiert werden können, und diejenige Übereinstimmung, die die geringste Überdeckungsabweichung erzeugt, wird als die zutreffende Übereinstimmung oder Entsprechung ausgewählt.
  • Basierend auf den errichteten oder möglichen Entsprechungen werden die mittels der Sensordaten und der Bildgebungsdaten abgeleiteten Sensorelementpositionen zur Deckung gebracht (Block 168). Wie oben erwähnt, können in einigen Ausführungsbeispielen das Zurdeckungbringen und die Errichtung der Entsprechungen in der Tat voneinander abhängen, d. h. die Überdeckungsabweichungen, die verschiedenen möglichen Übereinstimmungen zugeordnet sind, können genutzt werden, um die zutreffende Entsprechung auszuwählen. In einem Ausführungsbeispiel wird der Flächenschwerpunkt jedes Sensorelements 16, wie er in den Bildern und/oder Volumina ermittelt wurde, mit dem entsprechenden Sensorelementsignal in den von den Sensorelementen 16 abgeleiteten Positionsdaten zur Deckung gebracht. In gewissen Ausführungsbeispielen kann das Zurdeckungbringen mittels iterativer Optimierungstechniken oder einer geschlossenen analytischen Lösung erreicht werden. Um ein eindeutiges Zurdeckungbringen zu erzielen, ist es in speziellen Ausführungsbeispielen, wie oben erwähnt, im Allgemeinen gewünscht, dass die drei oder mehr Sensorelemente nicht auf oder in Nähe einer Geraden angeordnet sind.
  • Wenn die Sensorelemente 16 sowohl in dem Sensorraum (beispielsweise elektromagnetischen Raum) als auch in dem Bildraum zur Deckung gebracht sind, kann das interventionelle Verfahren mittels des dynamischen Verfolgens des inneren Organs auf der Grundlage der von den Sensorelementen 16 stammenden Signale ausgeführt werden. Es wird beispielsweise möglicherweise keine weitere Bildgebung ausgeführt, oder es werden die Bilddaten lediglich sporadisch aktualisiert, wobei andere Aktualisierun gen an den in dem interventionellen Verfahren verwendeten Bildern auf der kontinuierlichen, im Wesentlichen in Echtzeit durchgeführten Verfolgung der Sensorelemente 16 begründet werden. Auf diese Weise können die angezeigten Bilder, selbst wenn während der Operation überhaupt keine Bildgebung oder eine solche lediglich sporadisch durchgeführt wird, aktualisiert und bearbeitet werden, um eine genaue und aktuelle Wiedergabe des dem Verfahren unterworfenen inneren Organs 24 (oder eines sonstigen inneren Bereichs) zu erzeugen.
  • In einer Verwirklichung kann ein chirurgisches Instrument während eines invasiven Verfahrens, beispielsweise eines offenen oder laparoskopischen chirurgischen Verfahrens, unter Verwendung von Bildern verfolgt werden (Block 152), die auf der Grundlage der von den Sensorelementen abgeleiteten Positionsdaten und des Zurdeckungbringens dieser Signale mit dem Bild und/oder Volumina 126 aktualisiert sind. Zu Beispielen solcher chirurgischer Instrumente, die verfolgt werden können, gehören Biopsienadeln, Katheter, Ablationsnadeln, Zangen, und dergleichen. Gewöhnlich weist das zu verfolgende chirurgische Instrument ebenfalls ein Sensorelement 16 auf, z. B. einen EM-Sensor, so dass auch für das chirurgische Instrument Positions- und/oder Orientierungsdaten akquiriert werden, wodurch ermöglicht wird, die Position des chirurgischen Instruments in Verbindung mit dem Bild, das mittels der für die Sensorelemente 16 gewonnenen Positionsdaten aktualisiert ist, auf einem Display wiederzugeben. Auf diese Weise kann ein System, wie es hier beschrieben ist, einem Benutzer die Position des chirurgischen Instruments bezüglich des bewegten und/oder verformten inneren Organs 24 in Echtzeit oder weitgehend in Echtzeit auf einem Bildschirm wiedergeben.
  • Während im Vorliegenden lediglich spezielle Merkmale der Erfindung veranschaulicht und beschrieben wurden, erschließen sich dem Fachmann viele Abwandlungen und Veränderungen. Es ist daher selbstverständlich, dass die beigefügten Patentansprüche sämtliche Abwandlungen und Veränderungen abdecken sollen, die in den wahren Schutzbereich der Erfindung fallen.
  • Geschaffen ist ein Substrat 10, das dazu eingerichtet ist, an einem inneren Organ 24 oder Gewebe angebracht zu werden. In speziellen Ausführungsbeispielen passt sich das Substrat 10 an das innere Organ 24 oder Gewebe an und bewegt sich mit diesem. Auf dem Substrat 10 sind drei oder mehr Sensorelemente 16 integriert. In einem Ausführungsbeispiel erzeugen das Substrat 10 und die zugeordneten Sensorelemente 16 eine dynamische Referenzierung des inneren Organs 24 oder Gewebes, nach einem Zurdeckungbringen der Sensordaten mit Bildern und/oder volumetrischen Darstellungen 126 des inneren Organs 24 oder Gewebes. ELEMENTELISTE
    10 Biokompatibles Substrat
    16 Sensorelemente
    18 Elektrisch leitfähiges Element
    20 Chirurgische Gaze
    24 Inneres Organ
    26 Läsion
    30 Nadel
    34 Bildgebungssystem
    36 Bildwandler
    38 Patient
    40 Systemsteuerungsschaltkreis
    42 Bewegungs- und Steuerschaltkreis
    44 Datenakquisitionsschaltung
    46 Datenverarbeitungsschaltung
    48 Chirurgische Inzision
    50 Elektrisch leitende Drähte
    52 Kraftstromkreis
    54 Antennen
    56 Empfängerschaltkreis
    60 Displayschaltung
    62 Monitor
    64 Benutzerschnittstelle
    70 Auf Röntgenstrahlung basierendes System
    72 Röntgenstrahlungsquelle
    74 Kollimator
    76 Strahlungsbündel
    78 Teil der Strahlung
    80 Detektor
    84 Systemcontroller
    86 Linearpositionierungssubsystem
    88 Rotationssubsystem
    90 Röntgenstrahlcontroller
    92 Antriebscontroller
    94 Bilddatenakquisitionssystem
    96 Verarbeitungsschaltung
    98 Arbeitsspeicher
    100 Positions-/Orientierungsdatenakquisitionssystem
    102 Antennen
    106 Anwenderschnittstelle
    108 Display
    110 Drucker
    112 PACS
    114 Entfernt angeordneter Client
    120 Bilddaten
    122 Akquisition von Bilddaten
    124 Erzeugung von Bildern und Volumina
    126 Bilder und Volumina
    128 Segmentierung von interessierendem Bereich
    130 Segmentierter Bereich
    132 Erzeugung von Formmodell des Bereichs
    134 Bereichsmodell
    140 Anordnen von Substrat auf innerem Organ
    142 Akquisition von Positions- und/oder Orientierungsdaten für Sensorelemente
    144 Positions-/Orientierungsdaten
    146 Erzeugung eines Formmodells mit anpassbarem Bezug
    148 Referenzmodell
    150 Zurdeckungbringen von Referenz- und Bereichsmodell
    152 Verfolgung von chirurgischem Instrument
    156 Akquisition von Positions- und/oder Orientierungsdaten für Sensorelemente
    158 Positions-/Orientierungsdaten (Sensor)
    162 Lokalisierung von Sensorelementen in den Bildern oder Volumina
    164 Positionsdaten (Bild)
    166 Abgleich von Sensorkomponenten innerhalb von bild- und sensorbegründeten Positionsdaten
    168 Zurdeckungbringen von Sensorkomponenten mit Bildern oder Volumina

Claims (10)

  1. Chirurgisches Referenzsystem mit: einem Substrat (10), das dazu eingerichtet ist, an einem inneren Organ (24) oder Gewebe angebracht zu werden, so dass sich das Substrat (10) an das innere Organ (24) oder Gewebe anpasst und sich zusammen mit diesem bewegt; und drei oder mehr auf dem Substrat (10) integrierte Sensorelemente (16).
  2. Chirurgisches Referenzsystem nach Anspruch 1, wobei die drei oder mehr Sensorelemente (16) drei oder mehr elektromagnetische Sensorspulen enthalten.
  3. Chirurgisches Referenzsystem nach Anspruch 1, mit einer oder mehreren Empfangskomponenten (54, 56), die dazu eingerichtet sind, Positions- und/oder Richtungssignale zu erfassen, die durch die drei oder mehr Sensorelemente (16) erzeugt sind.
  4. Chirurgisches Referenzsystem nach Anspruch 1, mit einem oder mehreren Gebern, die dazu eingerichtet sind elektromagnetische Felder zu erzeugen, die durch die drei oder mehr Sensorelemente (16) detektierbar sind.
  5. Chirurgisches Referenzsystem nach Anspruch 1, wobei jedes Sensorelement (16) in drei Dimensionen Positionsdaten und in zwei Richtungen Orientierungsdaten erzeugt.
  6. Chirurgisches Referenzsystem nach Anspruch 1, wobei die drei oder mehr Sensorelemente (16) in Kombination in drei Dimensionen Positionsdaten und in drei Richtungen Orientierungsdaten erzeugen.
  7. Verfahren zum Verfolgen einer dynamischen Bewegung eines Organs (24), mit den Schritten: Erzeugen (156) eines ersten Satzes von Positionsdaten (158) für drei oder mehr Sensorkomponenten (16), die auf einem Substrat (10) integriert sind, das an einem inneren Organ (24) angeordnet ist, wobei der erste Satz von Positionsdaten (158) auf Signalen oder Feldern begründet ist, die durch die Sensorkomponenten (16) erzeugt oder erfasst sind; Erzeugen eines zweiten Satzes von Positionsdaten (164) für die drei oder mehr Sensorkomponenten (16) basierend auf einer Identifizierung (162) der drei oder mehr Sensorkomponenten (16) in einem oder mehreren radiologischen Bildern oder volumetrischen Darstellungen (126) des inneren Organs (24); Identifizieren (166) entsprechender Sensorkomponenten (16) in dem ersten Satz von Positionsdaten (158) und in dem zweiten Satz von Positionsdaten (164); und Zurdeckungbringen (168) des ersten Satzes von Positionsdaten (158) mit dem einen oder den mehreren radiologischen Bildern oder volumetrischen Darstellungen (126) basierend auf der Identifizierung (166) entsprechender Sensorkomponenten (16) in dem ersten Satz von Positionsdaten (158) und in dem zweiten Satz von Positionsdaten (164).
  8. Verfahren nach Anspruch 7, mit dem Schritt des Verfolgens (152) eines chirurgischen Instruments unter Verwendung des zur Deckung gebrachten ersten Satzes von Positionsdaten (158) und des einen oder der mehreren Bilder oder volumetrischen Darstellungen (126).
  9. Verfahren zum Verfolgen einer dynamischen Bewegung eines Organs (24), mit den Schritten: Erzeugen (142) von Positions- und Orientierungsdaten (144) für eine oder mehrere Sensorkomponenten (16), die auf einem Substrat (10) ausgebildet sind, das an einem inneren Organ (24) angeordnet ist, wobei die Positions- und Orientierungsdaten (144) auf Signalen oder Feldern begründet sind, die durch die Sensorkomponenten (16) erzeugt sind; Erzeugen (146) eines Formmodells (146) des Substrats (10) basierend auf den Positions- und Orientierungsdaten (144); Segmentieren (128) eines interessierenden Bereichs (130) in einem oder mehreren radiologischen Bildern oder volumetrischen Darstellungen (126), wobei der interessierende Bereich wenigstens das innere Organ (24), einen Abschnitt des inneren Organs (24) oder einen zu dem inneren Organ (24) unmittelbar benachbarten oder damit verbundenen Bereich enthält; Erzeugen (132) eines Formmodells (134) des interessierenden Bereichs, basierend auf der Segmentation; und Zurdeckungbringen (150) des Formmodells (148) des Substrats und des Formmodells (134) des interessierenden Bereichs.
  10. Verfahren nach Anspruch 9, mit dem Schritt des Verfolgens (152) eines chirurgischen Instruments mittels des zur Deckung gebrachten Formmodells (148) des Substrats und des Formmodells (134) des interessierenden Bereichs.
DE102008002864A 2007-05-31 2008-05-28 Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren Withdrawn DE102008002864A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/809,093 US8024026B2 (en) 2007-05-31 2007-05-31 Dynamic reference method and system for use with surgical procedures
US11/809,093 2007-05-31

Publications (1)

Publication Number Publication Date
DE102008002864A1 true DE102008002864A1 (de) 2008-12-04

Family

ID=39917527

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008002864A Withdrawn DE102008002864A1 (de) 2007-05-31 2008-05-28 Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren

Country Status (2)

Country Link
US (2) US8024026B2 (de)
DE (1) DE102008002864A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101301862B1 (ko) * 2005-03-29 2013-08-29 마틴 로슈 생체 변수들을 검출하는 생체 센서 시스템
US11457813B2 (en) 2005-03-29 2022-10-04 Martin W. Roche Method for detecting body parameters
US20110213221A1 (en) * 2005-03-29 2011-09-01 Roche Martin W Method for Detecting Body Parameters
WO2007136745A2 (en) 2006-05-19 2007-11-29 University Of Hawaii Motion tracking system for real time adaptive imaging and spectroscopy
US9642555B2 (en) * 2008-11-20 2017-05-09 Medtronic, Inc. Subcutaneous lead guidance
US8455834B2 (en) * 2009-12-02 2013-06-04 General Electric Company Systems and methods for patient positioning for nuclear medicine imaging
US8694075B2 (en) * 2009-12-21 2014-04-08 General Electric Company Intra-operative registration for navigated surgical procedures
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
EP2747641A4 (de) 2011-08-26 2015-04-01 Kineticor Inc Verfahren, systeme und vorrichtungen zur scan-internen bewegungskorrektur
US20140005527A1 (en) * 2012-06-29 2014-01-02 General Electric Company Method and system for dynamic referencing and registration used with surgical and interventional procedures
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
EP2950714A4 (de) 2013-02-01 2017-08-16 Kineticor, Inc. Bewegungsverfolgungssystem für echtzeit-adaptive bewegungskompensation in der biomedizinischen bildgebung
EP3157422A4 (de) 2014-03-24 2018-01-24 The University of Hawaii Systeme, verfahren und vorrichtungen zur entfernung von prospektiver bewegungskorrektur von medizinischen bildgebungsscans
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10537399B2 (en) * 2016-08-16 2020-01-21 Ethicon Llc Surgical tool positioning based on sensed parameters
US10398517B2 (en) 2016-08-16 2019-09-03 Ethicon Llc Surgical tool positioning based on sensed parameters
US20200333409A1 (en) * 2019-04-19 2020-10-22 St. Jude Medical, Cardiology Division, Inc. Magnetic reference sensor with reduced sensitivity to magnetic distortions
WO2022215075A1 (en) * 2021-04-08 2022-10-13 Mazor Robotics Ltd. Tracking soft tissue changes intraoperatively

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4054881A (en) * 1976-04-26 1977-10-18 The Austin Company Remote object position locater
US4109199A (en) * 1977-10-17 1978-08-22 The United States Of America As Represented By The Secretary Of The Navy Three axis magnetometer calibration checking method and apparatus
US4531526A (en) * 1981-08-07 1985-07-30 Genest Leonard Joseph Remote sensor telemetering system
US4613866A (en) * 1983-05-13 1986-09-23 Mcdonnell Douglas Corporation Three dimensional digitizer with electromagnetic coupling
US4642786A (en) * 1984-05-25 1987-02-10 Position Orientation Systems, Ltd. Method and apparatus for position and orientation measurement using a magnetic field and retransmission
US4742356A (en) * 1985-12-09 1988-05-03 Mcdonnell Douglas Corporation Method and apparatus for determining remote object orientation and position
US4737794A (en) * 1985-12-09 1988-04-12 Mcdonnell Douglas Corporation Method and apparatus for determining remote object orientation and position
US5287273A (en) * 1990-03-15 1994-02-15 Mount Sinai School Of Medicine Functional organ images
US5307072A (en) * 1992-07-09 1994-04-26 Polhemus Incorporated Non-concentricity compensation in position and orientation measurement systems
US5453686A (en) * 1993-04-08 1995-09-26 Polhemus Incorporated Pulsed-DC position and orientation measurement system
US6032530A (en) * 1994-04-29 2000-03-07 Advantedge Systems Inc. Biofeedback system for sensing body motion and flexure
US8280682B2 (en) * 2000-12-15 2012-10-02 Tvipr, Llc Device for monitoring movement of shipped goods
US6177792B1 (en) * 1996-03-26 2001-01-23 Bisense, Inc. Mutual induction correction for radiator coils of an objects tracking system
US6593884B1 (en) * 1998-08-02 2003-07-15 Super Dimension Ltd. Intrabody navigation system for medical applications
DE19914455B4 (de) * 1999-03-30 2005-07-14 Siemens Ag Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
US7366562B2 (en) * 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6615155B2 (en) * 2000-03-09 2003-09-02 Super Dimension Ltd. Object tracking using a single sensor or a pair of sensors
US7181261B2 (en) * 2000-05-15 2007-02-20 Silver James H Implantable, retrievable, thrombus minimizing sensors
US7006858B2 (en) * 2000-05-15 2006-02-28 Silver James H Implantable, retrievable sensors and immunosensors
US20030220557A1 (en) 2002-03-01 2003-11-27 Kevin Cleary Image guided liver interventions based on magnetic tracking of internal organ motion
US6774624B2 (en) * 2002-03-27 2004-08-10 Ge Medical Systems Global Technology Company, Llc Magnetic tracking system
US20040082842A1 (en) * 2002-10-28 2004-04-29 Lumba Vijay K. System for monitoring fetal status
US7464713B2 (en) * 2002-11-26 2008-12-16 Fabian Carl E Miniature magnetomechanical tag for detecting surgical sponges and implements
WO2004066825A2 (en) * 2003-01-31 2004-08-12 The Board Of Trustees Of The Leland Stanford Junior University Detection of apex motion for monitoring cardiac dysfunction
WO2004075782A2 (en) * 2003-02-26 2004-09-10 Alfred, E. Mann Institute For Biomedical Engineering At The University Of Southern California An implantable device with sensors for differential monitoring of internal condition
US20040254419A1 (en) * 2003-04-08 2004-12-16 Xingwu Wang Therapeutic assembly
US7158754B2 (en) * 2003-07-01 2007-01-02 Ge Medical Systems Global Technology Company, Llc Electromagnetic tracking system and method using a single-coil transmitter
US7313430B2 (en) * 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
US8354837B2 (en) * 2003-09-24 2013-01-15 Ge Medical Systems Global Technology Company Llc System and method for electromagnetic tracking operable with multiple coil architectures
US20050084147A1 (en) 2003-10-20 2005-04-21 Groszmann Daniel E. Method and apparatus for image reconstruction with projection images acquired in a non-circular arc
US20050107687A1 (en) * 2003-11-14 2005-05-19 Anderson Peter T. System and method for distortion reduction in an electromagnetic tracker
US8126224B2 (en) 2004-02-03 2012-02-28 Ge Medical Systems Global Technology Company, Llc Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images
US7369695B2 (en) 2004-08-20 2008-05-06 General Electric Company Method and apparatus for metal artifact reduction in 3D X-ray image reconstruction using artifact spatial information
JP4560359B2 (ja) * 2004-09-13 2010-10-13 オリンパス株式会社 位置検出装置、被検体内導入システムおよび位置検出方法
US20070238988A1 (en) * 2004-09-13 2007-10-11 Tetsuo Minai Body insertable system, receiving apparatus, and body insertable apparatus
DE102005004086A1 (de) * 2005-01-21 2006-07-27 Xybermind Gmbh Vorrichtung und Verfahren zur Bewegungserfassung
US7517318B2 (en) * 2005-04-26 2009-04-14 Biosense Webster, Inc. Registration of electro-anatomical map with pre-acquired image using ultrasound
JP4855759B2 (ja) * 2005-10-19 2012-01-18 オリンパス株式会社 受信装置およびこれを用いた被検体内情報取得システム
JP4981316B2 (ja) * 2005-12-16 2012-07-18 オリンパスメディカルシステムズ株式会社 被検体内導入装置
KR101080483B1 (ko) * 2006-09-06 2011-11-07 올림푸스 가부시키가이샤 의료 장치 제어 시스템
US8197494B2 (en) * 2006-09-08 2012-06-12 Corpak Medsystems, Inc. Medical device position guidance system with wireless connectivity between a noninvasive device and an invasive device
US7794407B2 (en) * 2006-10-23 2010-09-14 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US8388546B2 (en) * 2006-10-23 2013-03-05 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US8628525B2 (en) * 2006-12-21 2014-01-14 Koninklijke Philips N.V. Wireless interventional device and a system for wireless energy transmission
US8249689B2 (en) * 2007-02-23 2012-08-21 General Electric Company Coil arrangement for electromagnetic tracking method and system
US7902817B2 (en) * 2007-03-26 2011-03-08 General Electric Company Electromagnetic tracking method and system
JP5243750B2 (ja) * 2007-08-09 2013-07-24 オリンパスメディカルシステムズ株式会社 医療装置誘導システム、作動方法および医療装置誘導システムで用いるルックアップテーブルの作成方法
JP4908356B2 (ja) * 2007-09-11 2012-04-04 オリンパスメディカルシステムズ株式会社 カプセル誘導システム
US7834621B2 (en) * 2007-09-25 2010-11-16 General Electric Company Electromagnetic tracking employing scalar-magnetometer

Also Published As

Publication number Publication date
US8024026B2 (en) 2011-09-20
US8886289B2 (en) 2014-11-11
US20080300481A1 (en) 2008-12-04
US20110319751A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
DE102008002864A1 (de) Dynamisches Referenzverfahren und System für die Verwendung mit chirurgischen Verfahren
DE102005032755B4 (de) System zur Durchführung und Überwachung minimal-invasiver Eingriffe
DE102006026490B4 (de) Radiotherapievorrichtung mit Angiographie-CT-Vorrichtung
DE10210645B4 (de) Verfahren zur Erfassung und Darstellung eines in einen Untersuchungsbereich eines Patienten eingeführten medizinischen Katheters
DE69826421T2 (de) Bildgesteuerte Eingriffsverfahren
EP3449830B1 (de) Steuerung eines medizintechnischen bildgebenden systems
DE10322739B4 (de) Verfahren zur markerlosen Navigation in präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-C-Bogen-Bildes
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
DE60010309T2 (de) Verfahren zur echtzeitdarstellung von medizinischen bildern
DE112016005720T5 (de) 3D-Visualisierung während Chirurgie mit verringerter Strahlenbelastung
DE102008037424A1 (de) Verbessertes System und Verfahren für auf Volumen basierende Registrierung
DE10210646A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE102005048853A1 (de) Bildgebende medizinische Modalität
WO2016026758A1 (de) Steuerung der positionierung eines scanbereichs einer medizintechnischen bildgebenden anlage
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
EP1199031A2 (de) Röntgenfreies intravaskuläres Lokalisierungs- und Bildgebungsverfahren
DE112013003303T5 (de) Verfahren und System zur dynamischen Referenzierung und Registrierung bei chirurgischen Eingriffen und Interventionen
DE10322738A1 (de) Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes
DE102008016297A1 (de) Sequenzielle Bildakquisition mit Verfahren und System zur Aktualisierung
DE102007057094A1 (de) Systeme und Verfahren zur visuellen Verifizierung einer CT Registrierung und Rückkopplung
EP1088514A1 (de) Verfahren und Anordnung zur Bestimmung der Position eines medizinischen Instruments
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE102008016286A1 (de) System und Verfahren zum Verfolgen eines Atemzyklus eines Objektes
DE10240727A1 (de) Bildgebendes System und Verfahren zur Optimierung einer Röntgenabbildung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20150401

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034200000

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee