DE102020204985A1 - Steuerung eines robotisch bewegten medizinischen Objekts - Google Patents

Steuerung eines robotisch bewegten medizinischen Objekts Download PDF

Info

Publication number
DE102020204985A1
DE102020204985A1 DE102020204985.8A DE102020204985A DE102020204985A1 DE 102020204985 A1 DE102020204985 A1 DE 102020204985A1 DE 102020204985 A DE102020204985 A DE 102020204985A DE 102020204985 A1 DE102020204985 A1 DE 102020204985A1
Authority
DE
Germany
Prior art keywords
imaging
designed
processing unit
movement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020204985.8A
Other languages
English (en)
Inventor
Christian KAETHNER
Andreas Meyer
Michael Wiets
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102020204985.8A priority Critical patent/DE102020204985A1/de
Priority to US17/231,134 priority patent/US20210322105A1/en
Priority to CN202110433186.XA priority patent/CN113520425A/zh
Publication of DE102020204985A1 publication Critical patent/DE102020204985A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound

Abstract

Die Erfindung betrifft ein medizinisches Bildgebungssystem mit einer medizinischen Bildgebungseinheit zur Abbildung eines Abbildungsbereichs innerhalb eines Untersuchungsobjekts, wobei die Bildgebungseinheit derart ausgebildet ist, dass die Lage des Abbildungsbereichs in Bezug auf das Untersuchungsobjekt veränderbar ist. Das Bildgebungssystem weist ferner eine Verarbeitungseinheit auf, die eine Datenschnittstelle zu einer Bewegungsvorrichtung zur robotischen Positionierung eines medizinischen Objekts innerhalb des Untersuchungsobjekts aufweist. Die Verarbeitungseinheit ist ferner derart ausgebildet, dass sie eine momentane Position des medizinischen Objekts ermittelt. Die Verarbeitungseinheit ist ferner derart ausgebildet, dass sie eine relativ zum Abbildungsbereich definierte Zielposition für das medizinische Objekt vorgibt. Die Verarbeitungseinheit ist ferner derart ausgebildet, ein oder mehrere Steuersignale zu bestimmen, die geeignet sind, eine Bewegung des medizinischen Objekts von der momentanen Position zur Zielposition hervorzurufen. Die Verarbeitungseinheit ist ferner dazu ausgebildet, die ein oder mehreren Steuersignale über die Datenschnittstelle der Bewegungsvorrichtung bereitzustellen.

Description

  • Häufig erfordern interventionelle medizinische Prozeduren im oder über ein Gefäßsystem eines Untersuchungsobjekts ein, insbesondere perkutanes, Einführen eines medizinischen Objekts in das Gefäßsystem. Ferner ist es für eine erfolgreiche Diagnostik und/oder Behandlung oftmals notwendig, zumindest einen Teil des medizinischen Objekts hin zu einer zu behandelnden Zielregion in dem Gefäßsystem zu führen.
  • Das medizinische Objekt wird hierfür häufig von einem medizinischen Bedienpersonal (im Folgenden auch: Nutzer) unter regelmäßiger Röntgendurchleuchtungskontrolle, insbesondere manuell, bewegt. Nachteilig ist dabei die hohe Röntgenstrahlenbelastung des medizinischen Bedienpersonals und des Untersuchungsobjekts.
  • In verschiedenen Interventionssystemen zur Durchführung interventioneller medizinischer Prozeduren werden daher Ultraschallsysteme zur Bildgebung eingesetzt. Dabei wird ein Ultraschallkopf mit der Hautoberfläche des Patienten in Kontakt gebracht, um das darunterliegende Gewebe und ggf. das medizinische Objekt darzustellen. Dazu muss der Nutzer den Ultraschallkopf manuell führen, um den richtigen Blick auf das zu behandelnde Gefäß einzustellen. Diese Aufgabe muss von einem Ultraschallspezialisten durchgeführt werden, während der Interventionschirurg den Führungsdraht oder ein anderes medizinisches Objekt typischerweise über die Leiste (femoraler Zugang) des Patienten in den Körper einbringt und dieses dann zum zu behandelnden Zielgebiet navigiert. Um das medizinische Objekt im Blickfeld der Bildgebung zu halten, erfordert diese Vorgehensweise durch das beständige manuelle Nachführen der Bildgebung einen hohen Personal- und Bedienungsaufwand.
  • Der Erfindung liegt daher die Aufgabe zugrunde, eine vereinfachte und intuitive bildgebungsbasierte Bedienung von Bildgebungssystemen und Interventionssystemen bei einer interventionellen medizinischen Prozedur zu ermöglichen.
  • Gemäß der Erfindung wird die gestellte Aufgabe mit einem Bildgebungssystem, einem Interventionssystem und einem Verfahren zur Steuerung des Bildgebungssystems bzw. Interventionssystems gemäß dem Hauptanspruch und den nebengeordneten Ansprüchen gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß einem Aspekt der Erfindung wird ein medizinisches Bildgebungssystem bereitgestellt. Das Bildgebungssystem weist eine medizinische Bildgebungseinheit zur Abbildung eines Abbildungsbereichs innerhalb eines Untersuchungsobjekts auf, wobei die Bildgebungseinheit derart ausgebildet ist, dass die Lage des Abbildungsbereichs in Bezug auf das Untersuchungsobjekt veränderbar ist. Das Bildgebungssystem weist ferner eine Verarbeitungseinheit auf, die eine Datenschnittstelle zu einer Bewegungsvorrichtung zur robotischen Positionierung eines medizinischen Objekts innerhalb des Untersuchungsobjekts aufweist. Die Verarbeitungseinheit ist ferner derart ausgebildet, dass sie eine momentane Position des medizinischen Objekts ermittelt. Die Verarbeitungseinheit ist ferner derart ausgebildet, dass sie eine relativ zum Abbildungsbereich definierte Zielposition für das medizinische Objekt vorgibt. Die Verarbeitungseinheit ist ferner dazu ausgebildet, ein oder mehrere Steuersignale zu bestimmen, die geeignet sind, eine Bewegung des medizinischen Objekts von der momentanen Position zur Zielposition durch die Bewegungsvorrichtung zu veranlassen. Ferner ist die Verarbeitungseinheit dazu ausgebildet, die ein oder mehreren Steuersignale über die Datenschnittstelle der Bewegungsvorrichtung bereitzustellen.
  • Gemäß einem weiteren Aspekt wird ein Interventionssystem zur Durchführung einer interventionellen, insbesondere medizinischen, Prozedur bereitgestellt. Das Interventionssystem weist das oben beschriebene Bildgebungssystem sowie die Bewegungsvorrichtung zur robotischen Positionierung des medizinischen Objekts innerhalb des Untersuchungsobjekts und relativ zu diesem auf.
  • Dabei kann das medizinische Objekt beispielsweise als therapeutisches bzw. chirurgisches Instrument und/oder diagnostisches Instrument ausgebildet sein. Insbesondere kann das medizinische Objekt langgestreckt und/oder biegsam sein. Das medizinische Objekt kann beispielsweise als Katheter und/oder Endoskop und/oder Führungsdraht ausgebildet sein. Das medizinische Objekt kann einen vordefinierten Abschnitt aufweisen, der vorzugsweise an einem distalen Ende des medizinischen Objekts angeordnet ist. Der vordefinierte Abschnitt kann dabei ein Wirkglied des medizinischen Objekts sein oder in der Nähe des Wirkglieds angeordnet sein. Das Wirkglied kann zur Verrichtung einer therapeutischen bzw. chirurgischen und/oder diagnostischen Aufgabe innerhalb des Untersuchungsobjekts ausgebildet sein. Das Wirkglied kann beispielsweise als Katheterspitze und/oder optischer Eingang eines Endoskops und/oder Führungsdrahtspitze und/oder Gewebemanipulator ausgebildet sein.
  • Das Untersuchungsobjekt kann beispielsweise als anatomischer Körper mit einem oder mehreren Hohlräumen ausgebildet sein. Insbesondere kann das Untersuchungsobjekt ein Patient sein.
  • Die medizinische Bildgebungseinheit kann beispielsweise als medizinisches Röntgengerät, insbesondere als medizinisches C-Bogen-Röntgengerät, und/oder als Computertomographieanlage (CT) und/oder als Sonographieanlage und/oder als Magnetresonanztomographieanlage (MRT) und/oder als Positronenemissionstomographieanlage (PET) ausgebildet sein. Vorteilhafterweise kann die Bildgebungseinheit relativ zum Untersuchungsobjekt und/oder relativ zur Bewegungsvorrichtung beweglich sein. Ferner kann die Bildgebungseinheit dazu ausgebildet sein, zumindest einen Abschnitt (oder Ausschnitt) des Untersuchungsobjekts abzubilden. Dieser Ab- oder Ausschnitt wird im Folgenden auch Abbildungsbereich genannt. Hierfür kann die Bildgebungseinheit ausgebildet sein, insbesondere zweidimensionale und/oder dreidimensionale und/oder vierdimensionale Bilddaten des Untersuchungsobjekts aufzunehmen. Die dreidimensionalen Bilddaten können z.B. zwei räumliche und eine zeitliche Dimension (in Form einer Bilddatensequenz oder eines Videos) oder drei räumliche Dimensionen aufweisen. Die vierdimensionalen Bilddaten können z.B. drei räumliche und eine zeitliche Dimension aufweisen (in Form einer Bilddatensequenz oder eines Videos). Die zweidimensionalen Bilddaten können z.B. zwei räumliche Dimensionen aufweisen. Die Lage des Abbildungsbereichs kann insbesondere denjenigen zwei- oder dreidimensionalen Bereich des Untersuchungsobjekts bezeichnen, von dem Bilddaten aufgenommen werden. Die Lage kann folglich die Anordnung des Abbildungsbereichs im Untersuchungsobjekt bezeichnen. Die Lage kann dabei bezüglich des Untersuchungsobjekts, also z.B. in den Koordinaten des Untersuchungsobjekts oder relativ zu diesen definiert sein. Dabei kann die Bildgebungseinheit ferner dazu ausgebildet sein, zumindest einen Teil des medizinischen Objekts, insbesondere den vordefinierten Abschnitt und/oder eine an dem medizinischen Objekt angebrachte Markerstruktur zur besseren Sichtbarmachung, in den Bilddaten abzubilden.
  • Die Bewegungsvorrichtung kann vorteilhafterweise eine robotische Vorrichtung sein, die zur Fernmanipulation des medizinischen Objekts ausgebildet ist, beispielsweise ein Katheterroboter. Vorteilhafterweise kann die Bewegungsvorrichtung ein, insbesondere bewegbares und/oder verfahrbares, Befestigungselement aufweisen. Ferner kann die Bewegungsvorrichtung ein Kassettenelement aufweisen, welches zur Aufnahme zumindest eines Teils des medizinischen Objekts ausgebildet ist. Ferner kann die Bewegungsvorrichtung ein Bewegungselement aufweisen, welches an dem Befestigungselement, beispielsweise einem Stativ und/oder Roboterarm, befestigt ist. Zudem kann das Befestigungselement dazu ausgebildet sein, das Bewegungselement an einer Patientenlagerungsvorrichtung zu befestigen. Ferner kann das Bewegungselement vorteilhafterweise zumindest ein Aktuatorelement aufweisen, beispielsweise einen Elektromotor, wobei die Verarbeitungseinheit zum Steuern des Aktuatorelements ausgebildet ist. Vorteilhafterweise kann das Kassettenelement, insbesondere mechanisch und/oder elektromagnetisch und/oder pneumatisch, an das Bewegungselement, insbesondere das zumindest eine Aktuatorelement, koppelbar sein. Dabei kann das Kassettenelement ferner zumindest ein Übertragungselement aufweisen, welches durch die Kopplung zwischen dem Kassettenelement und dem Bewegungselement, insbesondere dem zumindest einen Aktuatorelement, bewegbar ist. Insbesondere kann das zumindest eine Übertragungselement an das zumindest eine Aktuatorelement bewegungsgekoppelt sein. Vorteilhafterweise ist das Übertragungselement dazu ausgebildet, eine Bewegung des Aktuatorelements auf das medizinische Objekt derart zu übertragen, dass das medizinische Objekt entlang einer Längserstreckungsrichtung des medizinischen Objekts bewegt wird und/oder dass das medizinische Objekt um die Längserstreckungsrichtung herum rotiert wird. Das zumindest eine Übertragungselement kann beispielsweise eine Rolle und/oder Walze und/oder Blende aufweisen.
  • Vorteilhafterweise kann das Bewegungselement mehrere, insbesondere unabhängig steuerbare, Aktuatorelemente aufweisen. Ferner kann das Kassettenelement mehrere Übertragungselemente, insbesondere zu jedem der Aktuatorelemente wenigstens ein bewegungsgekoppeltes Übertragungselement, aufweisen. Hierdurch kann eine, insbesondere unabhängige und/oder gleichzeitige, Bewegung des medizinischen Objekts entlang verschiedener Bewegungsfreiheitsgrade ermöglicht werden.
  • Vorteilhafterweise ist die Bewegungsvorrichtung außerhalb des Untersuchungsobjekts angeordnet. Des Weiteren kann die Bewegungsvorrichtung dazu ausgebildet sein, zumindest einen in dem Untersuchungsobjekt angeordneten Abschnitt des medizinischen Objekts (welcher Abschnitt ein oder mehrere Wirkglieder aufweisen kann) zu steuern und/oder zu bewegen.
  • Die Verarbeitungseinheit kann als zentrale oder dezentrale Steuerung des Bildgebungssystems bzw. Interventionssystems ausgebildet sein. Die Verarbeitungseinheit kann ein oder mehrere Steuergeräte und/oder ein oder mehrere Prozessoren aufweisen. Die Verarbeitungseinheit kann als lokaler oder Cloudbasierter Verarbeitungsserver implementiert sein. Vorteilhafterweise kann die Verarbeitungseinheit zumindest eine Nutzerschnittstelle aufweisen. Die Nutzerschnittstelle kann ein Eingabeelement aufweisen, beispielsweise eine Tastatur und/oder einen Steuerhebel (engl. Joystick) und/oder ein Pedal und/oder ein kapazitives und/oder resistives und/oder eine Kombination aus resistivem und kapazitivem Eingabefeld und/oder einen Tastschalter, welches eine Steuerung des Interventionssystems durch einen Nutzer, beispielsweise ein medizinisches Bedienpersonal, durch eine entsprechende Bedieneingabe ermöglicht. Hierdurch kann eine Steuerung der Bewegung des medizinischen Objekts in dem Untersuchungsobjekt mittels der Bewegungsvorrichtung und/oder der Bildgebungseinheit durch eine Eingabe eines Nutzers an dem Eingabeelement ermöglicht werden. Die Nutzerschnittstelle kann ferner ein Darstellungselement, beispielsweise einen Monitor oder ein Display aufweisen. Das Darstellungselement kann dazu ausgebildet sein, den Abbildungsbereich (von dem Abbildungsbereich aufgenommene Bilddaten) für einen Nutzer graphisch darzustellen.
  • Die Datenschnittstelle kann als reelle oder virtuelle Datenschnittstelle ausgebildet sein. Insbesondere kann die Datenschnittstelle als Datenschnittstelle für drahtlose Datenübertragung ausgebildet sein. Die Datenschnittstelle kann ein Hardware- und/oder Software-Interface, z.B. einen PCI-Bus, eine USB-Schnittstelle, eine Fire-Wire-Schnittstelle, eine ZigBee- oder eine Bluetooth-Schnittstelle aufweisen. Die Datenschnittstelle kann eine Schnittstelle eines Kommunikationsnetzwerks aufweisen, wobei das Kommunikationsnetzwerk ein Local Area Network (LAN), beispielsweise an Intranet oder ein Wide Area Network (WAN) aufweisen kann. Entsprechend kann die Datenschnittstelle eine LAN-Schnittstelle oder eine Wireless LAN-Schnittstelle (WLAN oder Wi-Fi) aufweisen. Ferner kann die Datenschnittstelle auch mehrere der vorgenannten Schnittstellen in Kombination aufweisen.
  • Die momentane Position kann die Position des medizinischen Objekts relativ zu dem Lagezustand und/oder dem Untersuchungsobjekt und/oder dem Abbildungsbereich bezeichnen. Die momentane Position kann in den Koordinaten des Abbildungsbereichs und/oder relativ zu diesen gegeben sein. Die momentane Position kann in den Koordinaten des Untersuchungsobjekts bzw. des Abbildungsbereichs oder relativ zu diesen definiert sein. Die Verarbeitungseinheit kann dazu ausgebildet sein, die momentane Position basierend auf einer geeigneten Bewegungsinformation des medizinischen Objekts zu ermitteln. Hierfür kann die Verarbeitungseinheit dazu ausgebildet sein, die Bewegungsinformation zu empfangen (beispielsweise von der Bewegungsvorrichtung). Die Verarbeitungseinheit kann dazu ausgebildet sein, eine Registrierung zwischen Untersuchungsobjekt bzw. Bildgebungseinheit und der Bewegungsvorrichtung (z.B. über die Datenschnittstelle) herzustellen. Die momentane Position kann sich insbesondere auf die momentane Position des vordefinierten Abschnitts beziehen.
  • Die Zielposition kann als diejenige Position verstanden werden, zu der das medizinische Objekt (bzw. der der vordefinierte Abschnitt) hinbewegt werden soll. Die Zielposition kann relativ zum Abbildungsbereich und bevorzugt innerhalb des Abbildungsbereichs definiert sein. Ist die Zielposition relativ zum Abbildungsbereich definiert, ändert damit z.B. eine Lageänderung des Abbildungsbereichs relativ zum Untersuchungsobjekt die Zielposition im Untersuchungsobjekt. „Relativ zum Abbildungsbereich definiert“ kann bedeuten, dass die Zielposition eine vorgegebene Lagebeziehung zum Abbildungsbereich aufweist. Die vorgegebene Lagebeziehung kann vorherbestimmt bzw. fest vorgegeben sein. Alternativ kann die Lagebeziehung, z.B. basierend auf einer Nutzereingabe, variabel vorgeben werden.
  • Die Komponenten der Vorrichtung wirken somit synergetisch dahingehend zusammen, dass eine Positionssteuerung des medizinischen Objekts durch eine Definition einer Zielposition über die Bildgebung bewerkstelligt werden kann. Die Zielposition kann also insbesondere mit dem Abbildungsbereich nachgeführt werden. Damit ist mit anderen Worten eine Steuerung des medizinischen Objekts durch ein „Verfahren“ der Bildgebung oder durch direkte Vorgabe der Zielposition anhand der ausgegebenen Bilddaten möglich, was im Sinne der formulierten Aufgabe eine intuitive und weniger ressourcenintensive Durchführung einer interventionellen Prozedur an einem Untersuchungsobjekt ermöglicht.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit derart ausgebildet, dass die Vorgabe der relativ zum Abbildungsbereich definierten Zielposition aktiviert und/oder deaktiviert werden kann. Mit anderen Worten kann also das Nachführen der Zielposition mit dem Abbildungsbereich (bzw. mit der Lage des Abbildungsbereichs) ein- und ausgeschaltet werden. Bevorzugt ist die Verarbeitungseinheit derart ausgebildet, dass die Vorgabe der relativ zum Abbildungsbereich definierten Zielposition durch eine Nutzereingabe aktiviert und/oder deaktiviert werden kann. Hierfür kann das Bildgebungssystem eine Nutzerschnittstelle aufweisen, die derart ausgebildet ist, dass ein Nutzer die Vorgabe der relativ zum Abbildungsbereich definierten Zielposition durch eine Nutzereingabe aktivieren und/oder deaktivieren kann.
  • Ist die Vorgabe der Zielposition relativ zum Abbildungsbereich aktiviert, kann die Zielposition durch eine Lageänderung des Abbildungsbereichs verändert werden. Mit anderen Worten kann das medizinische Objekt durch die Verlagerung des Abbildungsbereichs oder über eine auf die Bilddaten bezogene Eingabe geführt werden. Ist die Vorgabe der Zielposition relativ zum Abbildungsbereich hingegen deaktiviert, kann der Abbildungsbereich verändert werden, ohne dass eine Bewegung des medizinischen Objekts induziert wird. Dies gestattet es, die Bildgebung anzupassen und/oder unabhängig von dem Abbildungsbereich definierte Zielregionen für das medizinische Objekt anzufahren.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit derart ausgebildet, dass sie einen Lagezustand des Abbildungsbereichs bezüglich des Untersuchungsobjekts ermittelt und die ein oder mehreren Steuersignale basierend auf dem Lagezustand bestimmt.
  • Der Lagezustand beschreibt insbesondere die momentane Lage des Abbildungsbereichs in Bezug auf das Untersuchungsobjekt. Der Lagezustand kann beispielsweise die Anordnung und/oder Position des Abbildungsbereichs in den Koordinaten des Untersuchungsobjekts oder relativ zu diesen angeben. Ferner kann der Lagezustand die Anordnung und/oder Position des Abbildungsbereichs relativ zu geometrischen Ankerpunkten des Untersuchungsobjekts, wie etwa ein oder mehrere Organe und/oder anatomische Landmarken angeben. Die Verarbeitungseinheit kann dazu ausgebildet sein, den Lagezustand basierend auf einer geeigneten Lageinformation zu ermitteln. Hierfür kann die Verarbeitungseinheit dazu ausgebildet sein, die Lageinformation zu empfangen (beispielsweise von der Bildgebungseinheit). Zur Angabe des Lagezustands bezüglich des Untersuchungsobjekts kann die Verarbeitungseinheit dazu ausgebildet sein, eine Registrierung zwischen Untersuchungsobjekt und Bildgebungseinheit herzustellen.
  • Die Bestimmung des Lagezustands des Abbildungsbereichs relativ zum Untersuchungsobjekt erlaubt es, die Vorgabe einer Zielposition durch die Bildgebung in präzise Instruktionen für die Bewegungsvorrichtung umzusetzen. Durch die Kenntnis des Lagezustands des Abbildungsbereichs relativ zum Untersuchungsobjekt kann die Bewegung des medizinischen Objekts exakt auf das Untersuchungsobjekt abgestimmt werden, wodurch komplexere Bewegungsmuster für das medizinische Objekt einfacher vorgegeben werden können.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit dazu ausgebildet, eine Information hinsichtlich des Untersuchungsobjekts zu empfangen, welche Information eine Information zu einer Gefäßstruktur des Untersuchungsobjekts und/oder eine Information zu einer Materialeigenschaft des Untersuchungsobjekts und/oder eine Zustandsinformation des Untersuchungsobjekts aufweist. Die Verarbeitungseinheit ist ferner dazu ausgebildet, die ein oder mehreren Steuersignale basierend auf der Information hinsichtlich des Untersuchungsobjekts zu bestimmen.
  • Die Information zu einer Materialeigenschaft des medizinischen Objekts kann beispielsweise einen Durchmesser und/oder eine Elastizität und/oder eine Dichte und/oder eine Verformbarkeit aufweisen. Die Information zu einer Gefäßstruktur kann bezogen auf das Untersuchungsobjekt lokal aufgelöst sein, also lokale Materialeigenschaften des Untersuchungsobjekts beschreiben. Die Information zu einer Gefäßstruktur kann beispielsweise eine Information zum Verlauf von Gefäßen, zu Gefäßdurchmessern, Gefäßabzweigungen, insbesondere Bifurkationen, und/oder Gefäßkrümmungen und/oder Gefäßanomalien aufweisen. Die Zustandsinformation des Untersuchungsobjekts kann ein oder mehrere zeitlich veränderliche physiologische Parameter des Untersuchungsobjekts aufweisen. Die zeitlich veränderlichen physiologischen Parameter können die Flussgeschwindigkeit und/oder die Fließrichtung einer Gefäßflüssigkeit, z.B. Blut, in einer Gefäßstruktur umfassen. Alternativ oder zusätzlich können die zeitlich veränderlichen Parameter Informationen hinsichtlich eines Atmungszyklus und/oder kardiologische Daten umfassen.
  • Die Information hinsichtlich des Untersuchungsobjekts können der Verarbeitungseinheit als Datensatz bereitgestellt werden. Die Verarbeitungseinheit kann dazu ausgebildet sein, den Datensatz zu empfangen (z.B. zu laden bzw. von einem Datenspeicher innerhalb der Verarbeitungseinheit oder über die Datenschnittstelle abzurufen). Insbesondere kann der Datensatz zumindest teilweise eine Gefäßstruktur eines Untersuchungsobjekts abbilden.
  • Die Information hinsichtlich des Untersuchungsobjekts (der Datensatz) kann mit dem Untersuchungsobjekt und/oder der Bildgebungseinheit und/oder der Bewegungsvorrichtung registriert sein.
  • Ferner kann die Information hinsichtlich des Untersuchungsobjekts durch das Bildgebungssystem bereitgestellt werden. Beispielsweise könne ein oder mehrere der zeitlich veränderlichen Parameter durch das Bildgebungssystem ermittelt werden. Insbesondere können Flussgeschwindigkeit und Fließrichtung durch eine Ultraschall-basierte Bildgebung ermittelt werden.
  • Durch die Berücksichtigung der zusätzlichen Information hinsichtlich des Untersuchungsobjekts kann die Ansteuerung der Bewegungsvorrichtung weiter optimiert werden. Insbesondere ist vorstellbar, dass die ein oder mehreren Steuersignale basierend auf der Information hinsichtlich des Untersuchungsobjekts angepasst bzw. optimiert werden. Die Vorgabe der Zielposition durch die Lage des Abbildungsbereichs könnte dann als „grobe“ Vorgabe dienen, die basierend auf den Gegebenheiten innerhalb des Untersuchungsobjekts weiter angepasst wird.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit dazu ausgebildet, beim Bestimmen der ein oder mehreren Steuersignale eine Bewegungstrajektorie für das medizinische Objekt (bzw. den vordefinierten Abschnitt des medizinischen Objekts) zu bestimmen, welche geeignet ist, das medizinische Objekt (bzw. den vordefinierten Abschnitt) insbesondere im Untersuchungsobjekt von der momentanen Position zur Zielposition zu bewegen. Die Verarbeitungseinheit ist dabei insbesondere weiter dazu ausgebildet, die ein oder mehreren Steuerbefehle basierend auf der Bewegungstrajektorie zu bestimmen (und/oder die Bewegungstrajektorie in die ein oder mehreren Steuerbefehle zu übertragen).
  • Die Bewegungstrajektorie kann eine Abfolge von raumzeitlichen Punkten und/oder eine raum-zeitliche Kurve aufweisen, welche von der momentanen Position des medizinischen Objekts (des vordefinierten Abschnitts) im Untersuchungsobjekt zur Zielposition führt. Die Bewegungstrajektorie kann insbesondere zweidimensional und/oder dreidimensional sein. Zur Erstellung der Bewegungstrajektorie kann die Verarbeitungseinheit beispielsweise ausgebildet sein, einen Trajektorien-Planungsalgorithmus anzuwenden. Dabei kann die Verarbeitungseinheit vorteilhafterweise dazu ausgebildet sein, die Information hinsichtlich des Untersuchungsobjekts zu berücksichtigen.
  • Die Bewegungsvorrichtung ist vorzugsweise dazu ausgebildet, das medizinische Objekt, insbesondere einen in dem Untersuchungsobjekt angeordneten Teil des medizinischen Objekts, ferner insbesondere den vordefinierten Abschnitt entlang der Bewegungstrajektorie zu bewegen. Dabei kann die Bewegungsvorrichtung dazu ausgebildet sein, das medizinische Objekt entlang der Längserstreckungsrichtung des medizinischen Objekts und/oder um die Längserstreckungsrichtung herum derart zu bewegen, dass der Teil des medizinischen Objekts, welcher innerhalb des Untersuchungsobjekts, insbesondere der Gefäßstruktur, angeordnet ist, der Bewegungstrajektorie folgt. Dabei kann die Bewegungsvorrichtung zudem dazu ausgebildet sein, die Spitze des medizinischen Objekts derart definiert zu verformen und/oder auszurichten, beispielsweise durch eine Rotationsbewegung, dass diese Spitze der Bewegungstrajektorie folgt. Dies kann insbesondere bei Gefäßverzweigungen, beispielsweise einer Bifurkation und/oder einem Ostium, hilfreich sein.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit ferner dazu ausgebildet, die Bewegungstrajektorie basierend auf der Information hinsichtlich des Untersuchungsobjekts (basierend auf dem Datensatz) zu bestimmen.
  • Dadurch können insbesondere Gefäßstrukturen bei der Pfadplanung für das medizinische Objekt berücksichtigt werden, was die Steuerung des medizinischen Objekts sicherer macht.
  • Gemäß einer Ausbildungsform ist die Verarbeitungseinheit dazu ausgebildet, beim Bestimmen der ein oder mehreren Steuersignale eine Registrierung zwischen der Bildgebungseinheit und der Bewegungsvorrichtung herzustellen. Mit anderen Worten kann ein Koordinatensystem der Bildgebungseinheit vorteilhafterweise mit dem Koordinatensystem der Bewegungsvorrichtung registriert sein. Hierdurch kann jeder Position im Abbildungsbereich eine korrespondierende räumliche Position im Koordinatensystem der Bewegungsvorrichtung zugeordnet werden. Zudem kann die Verarbeitungseinheit dazu ausgebildet sein, eine entsprechende Registrierung zwischen der Bildgebungseinheit und dem Untersuchungsobjekt bzw. zwischen dem Untersuchungsobjekt und der Bewegungsvorrichtung herzustellen.
  • Durch die Registrierungen können Positions- und Lageangaben einfach ineinander umgerechnet werden, was z.B. die Ausgabe geeigneter Steuerbefehle zur Ansteuerung der Bewegungsvorrichtung erleichtern kann.
  • Gemäß einer Ausführungsform weist das Bildgebungssystem bzw. das Interventionssystem ferner eine Positionierungsvorrichtung auf, die zur robotischen Positionierung der Bildgebungseinheit relativ zum Untersuchungsobjekt derart ausgebildet ist, dass die Positionierungsvorrichtung die Lage des Abbildungsbereichs bezüglich des Untersuchungsobjekts robotisch einstellen kann.
  • Das Bildgebungssystem bzw. das Interventionssystem kann dabei derart ausgebildet sein, dass die Positionierungsvorrichtung über eine Nutzereingabe steuerbar ist. Dazu kann das Bildgebungssystem bzw. das Interventionssystem (die Verarbeitungseinheit) eine Nutzerschnittstelle aufweisen, die derart ausgebildet ist, dass in diese eine Nutzereingabe zur Steuerung der Positionierungseinrichtung eingebbar ist. Die Verarbeitungseinheit kann ferner dazu ausgebildet sein, dass sie die Positionierungsvorrichtung basierend auf der Nutzereingabe ansteuert. Eine hierfür geeignete Nutzerschnittstelle kann beispielsweise als Steuerhebel (Joystick) ausgebildet sein. Zusätzlich oder alternativ dazu kann die Verarbeitungseinheit dazu ausgebildet sein, die Positionierungseinheit automatisch d.h. ohne dezidierte Nutzereingabe anzusteuern.
  • Durch die Positionierungsvorrichtung wird generell eine genauere Einstellung sowie ein präziseres Halten der Lage des Abbildungsbereichs relativ zum Untersuchungsobjekt möglich, was den Nutzer bei der Bedienung des Bildgebungs- bzw. Interventionssystems entlastet. Zudem ermöglicht die Positionierungsvorrichtung ggf. ein automatisiertes Nachführen des Abbildungsbereichs, z.B. relativ zum medizinischen Objekt, was die Bedienerfreundlichkeit weiter verbessern kann. Dabei kann eine geeignete Sensorik z.B. einen Kontakt zwischen dem Untersuchungsobjekt und einem Ultraschallkopf als Teil des Bildgebungssystem sicherstellen (z.B. mittels Force-Feedback) .
  • Gemäß einer Ausführungsform kann die Positionierungsvorrichtung einen 6DOF- oder 7DOF-Roboter, und insbesondere einen 7DOF-Leichtbauroboter, aufweisen. „DOF“ bezeichnet dabei die „Degrees of Freedom“, also die Bewegungsfreiheitsgrade des eingesetzten Roboters. Der Leichtbauroboter ist vorzugsweise modular aufgebaut und, weiter bevorzugt, dem menschlichen Arm nachempfunden.
  • Derartige Roboter ermöglichen eine erhöhte Flexibilität und Manipulierbarkeit und sind daher gut zur Einstellung der Lage des Abbildungsbereichs geeignet.
  • Die Positionierungsvorrichtung kann ferner eine integrierte Sensorik zur Detektion äußerer Kräfte aufweisen. Die Verarbeitungseinheit kann dazu ausgebildet sein, die Positionierungsvorrichtung basierend auf den detektierten Kräften zu steuern.
  • Dadurch kann ermöglicht werden, bei der Bewegung der Bildgebungseinheit äußeren Kräften nachzugeben sowie sensible Bewegungen und komplexe Bewegungsabläufe durchzuführen, wie es z.B. beim Aufsetzen und Bewegen einer Ultraschalleinheit auf dem Untersuchungsobjekt erforderlich sein kann. Zudem kann so ggf. sichergestellt werden, dass die Ultraschalleinheit mit dem Untersuchungsobjekt in Kontakt ist.
  • Gemäß einer Ausführungsform ist die Bewegungsvorrichtung dazu ausgebildet, der Verarbeitungseinheit eine Bewegungsinformation bereitzustellen, aus welcher Bewegungsinformation der Bewegungszustand und insbesondere die momentane Position des medizinischen Objekts ableitbar sind. Der Bewegungszustand des medizinischen Objekts beschreibt das momentane Bewegungsverhalten des medizinischen Objekts bezüglich des Lagezustands und/oder des Untersuchungsobjekts so, dass aus dem Bewegungszustand wenigstens eine momentane Position des vordefinierten Abschnitts bezüglich des Abbildungsbereichs und/oder des Untersuchungsobjekts ableitbar sind. Mit anderen Worten erlaubt der Bewegungszustand eine Aussage über die Anordnung des medizinischen Objekts (des vordefinierten Abschnitts) relativ zur Lage des Abbildungsbereichs bzw. des Untersuchungsobjekts. Der Bewegungszustand kann beispielsweise eine Information zu einer Geschwindigkeit, insbesondere einer Bewegungsgeschwindigkeit, des medizinischen Objekts (des vordefinierten Abschnitts) relativ zum Abbildungsbereich (und damit Untersuchungsobjekt) aufweisen. Dabei kann die Information zur Geschwindigkeit des medizinischen Objekts (des vordefinierten Abschnitts) eine Information zu einer Translationsgeschwindigkeit des medizinischen Objekts entlang dessen Längserstreckungsrichtung und/oder eine Information zu einer Rotationsgeschwindigkeit des medizinischen Objekts um dessen Längserstreckungsrichtung herum aufweisen. Ferner kann der Bewegungszustand eine Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz des medizinischen Objekts (des vordefinierten Abschnitts) relativ zum Untersuchungsobjekt und/oder Abbildungsbereich aufweisen. Der Bewegungszustand erlaubt also, zumindest die momentane Position des vordefinierten Abschnitts im Koordinatensystem des Abbildungsbereichs und/oder des Lagezustands und/oder des Untersuchungsobjekts nachzuvollziehen und für eine automatisierte (Um- oder Neu-)Positionierung des medizinischen Objekts (des vordefinierten Abschnitts) zu verwenden. Die Bewegungsinformation kann dabei eine Information zu einer Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz des medizinischen Objekts aufweisen. Die Bewegungsinformation kann ferner eine Relativbewegung des medizinischen Objekts bezüglich der Bewegungsvorrichtung aufweisen. Vorteilhafterweise kann die Bewegungsinformation Informationen zum, insbesondere momentanen, Bewegungszustand des medizinischen Objekts relativ zur Bewegungsvorrichtung aufweisen. Die Verarbeitungseinheit kann dann dazu ausgebildet sein, die momentane Position des medizinischen Objekts auf Grundlage der Bewegungsinformation zu ermitteln.
  • Die Bewegungsvorrichtung kann beispielsweise eine Sensoreinheit aufweisen, die zur Erfassung einer Relativbewegung des medizinischen Objekts relativ zur Bewegungsvorrichtung ausgebildet ist. Dabei kann die Sensoreinheit insbesondere einen Encoder, beispielsweise einen Radencoder und/oder einen Walzenencoder, und/oder einen optischen Sensor, beispielsweise ein Barcodescanner und/oder ein Laserscanner und/oder eine Kamera, und/oder einen elektromagnetischen Sensor aufweisen. Beispielsweise kann die Sensoreinheit in das Bewegungselement, insbesondere das zumindest eine Aktuatorelement, und/oder das Kassettenelement, insbesondere das zumindest eine Übertragungselement, zumindest teilweise integriert angeordnet sein. Alternativ oder zusätzlich kann die Bewegungsvorrichtung ausgebildet sein, basierend auf einem Steuerparameter zum Steuern des zumindest einen Aktuatorelements und/oder des zumindest einen Übertragungselements die Bewegungsinformation bereitzustellen. Ferner kann die Sensoreinheit zum Bereitstellen der Bewegungsinformation an die Verarbeitungseinheit ausgebildet sein. Die Sensoreinheit kann insbesondere zur Erfassung der Relativbewegung des medizinischen Objekts durch eine Erfassung des medizinischen Objekts relativ zur Bewegungsvorrichtung ausgebildet sein. Alternativ oder zusätzlich kann die Sensoreinheit zur Erfassung einer Bewegung und/oder Lageänderung von Komponenten der Bewegungsvorrichtung ausgebildet sein, welche Komponenten mit dem medizinischen Objekt bewegungsgekoppelt sind, beispielsweise das zumindest eine Aktuatorelement und/oder das zumindest eine Übertragungselement. Dabei kann die Bewegungsvorrichtung, insbesondere die Sensoreinheit, vorteilhafterweise dazu ausgebildet sein, die, insbesondere momentane, Relativposition und/oder Ausrichtung und/oder Bewegungsdistanz bezüglich einer Referenzpositionierung des medizinischen Objekts zu einem, insbesondere früheren, Referenzzeitpunkt zu bestimmen. Vorteilhafterweise kann die Bewegungsvorrichtung, insbesondere die Sensoreinheit, zum Erfassen der Referenzpositionierung des medizinischen Objekts ausgebildet sein, wenn ein vordefinierter Abschnitt des medizinischen Objekts in der Ausgangsregion, insbesondere dem Eintrittspunkt und/oder der Einführschleuse, angeordnet ist. Insbesondere kann die Referenzpositionierung eine Information zur räumlichen Position und/oder Ausrichtung des medizinischen Objekts, insbesondere des vordefinierten Abschnitts, aufweisen. Beispielsweise kann die Bewegungsvorrichtung, insbesondere die Sensoreinheit, ausgebildet sein, einen Bewegungszustand des medizinischen Objekts an der Bewegungsvorrichtung und/oder einen Zustand der Bewegungsvorrichtung, insbesondere von mit dem medizinischen Objekt bewegungsgekoppelten Komponenten der Bewegungsvorrichtung, zum Referenzzeitpunkt zu erfassen.
  • Des Weiteren kann die Bewegungsvorrichtung zum Erfassen einer Änderung des Bewegungszustands des medizinischen Objekts bezüglich der Referenzpositionierung ausgebildet sein. Basierend auf der erfassten Änderung des Bewegungszustands des medizinischen Objekts kann die Bewegungsvorrichtung ausgebildet sein, die Bewegungsinformation an die Verarbeitungseinheit bereitzustellen. Beispielsweise kann die Verarbeitungseinheit dazu ausgebildet sein, eine Bewegungsdistanz des medizinischen Objekts, insbesondere in der Gefäßstruktur des Untersuchungsobjekts, zwischen der Referenzpositionierung und der, insbesondere momentanen, Positionierung des medizinischen Objekts basierend auf der erfassten Änderung des Zustands des medizinischen Objekts an der Bewegungsvorrichtung zu ermitteln. Dabei kann die Bewegungsdistanz insbesondere eine räumliche Distanz zwischen der Referenzpositionierung und der momentanen Positionierung des medizinischen Objekts entlang dessen Längserstreckungsrichtung beschreiben. Insbesondere kann die Längserstreckungsrichtung des medizinischen Objekts räumlich gekrümmt verlaufen. Dadurch, dass das medizinische Objekt ab dem Eintrittspunkt entlang der Bewegungstrajektorie in der Gefäßstruktur angeordnet ist, kann die Verarbeitungseinheit zur Bestimmung der relativen und/oder absoluten räumlichen Positionierung des medizinischen Objekts, insbesondere des vordefinierten Abschnitts, ausgebildet sein.
  • Hierdurch kann vorteilhafterweise eine genaue Bestimmung der, insbesondere relativen und absoluten, räumlichen Positionierung des medizinischen Objekts, insbesondere des vordefinierten Abschnitts, in dem Untersuchungsobjekt ermöglicht werden. Durch das Bereitstellen der Bewegungsinformation durch die Bewegungsvorrichtung kann zudem auf eine weitere Sensorik und/oder eine Ableitung des Bewegungszustands aus den aufgenommen Bilddaten verzichtet werden, was das System vereinfachen und Rechenaufwände reduzieren kann. Vorteilhafterweise kann die durch die Bewegungsvorrichtung bereitgestellte Bewegungsinformation mit dem Untersuchungsobjekt registriert sein. Eine solche Registrierung kann beispielsweise über den Eintrittspunkt des medizinischen Objekts in das Untersuchungsobjekt erfolgen, von welchem Eintrittspunkt aus alle Bewegungen des medizinischen Objekts definiert werden können.
  • Gemäß einer Ausführungsform ist die Bildgebungseinheit dazu ausgebildet, der Verarbeitungseinheit Bilddaten des Abbildungsbereichs bereitzustellen. Die Verarbeitungseinheit ist dazu ausgebildet, die momentane Position, insbesondere unter Verwendung von Algorithmen zur Erkennung des medizinischen Objekts, aus den Bilddaten zu extrahieren.
  • Mit anderen Worten können die Bilddaten dann als eine Form von „Bewegungsinformation“ aufgefasst werden, aus denen der Bewegungszustand des medizinischen Objekts bezüglich des Untersuchungsobjekts ableitbar ist. Die Algorithmen können dabei auf künstlicher Intelligenz beruhen, d.h., ein oder mehrere trainierte Funktionen aufweisen. Eine trainierte Funktion bildet einen Eingabewert entsprechend einer „erlernten“ Abbildevorschrift auf einen Ausgabewert ab. Vorliegend können als Eingabewerte Bilddaten aus dem Abbildungsbereich verstanden werden, während die Ausgabewerte die Koordinaten des medizinischen Objekts (des vordefinierten Abschnitts) sind. Beispielhaft können die Algorithmen ein oder mehrere neuronale Netze, insbesondere sog. Convolutional Neural Networks aufweisen.
  • Die Bestimmung der momentanen Position durch Bilddaten ermöglicht eine effiziente Ermittlung bzw. Überprüfung der momentanen Position, die zudem unabhängig von der eingesetzten Bewegungsvorrichtung arbeiten kann.
  • Gemäß einer Ausführungsform ist die Lage der Zielposition (bei aktivierter Zielpositions-Vorgabe) relativ zum Abbildungsbereich fest vorgegeben.
  • Beispielsweise kann die Zielposition der Mitte des Abbildungsbereichs zugeordnet sein. Durch eine feste Vorgabe der Zielposition relativ zum Abbildungsbereich wird die Zielposition (bei aktivierter Zielpositions-Vorgabe) mit anderen Worten durch die Lage des Abbildungsbereichs bestimmt. Dadurch kann durch eine Lageveränderung des Abbildungsbereichs direkt die Zielposition relativ zum Untersuchungsobjekt verändert werden. Somit kann durch eine Verlagerung des Abbildungsbereichs die Bewegungsvorrichtung und damit das medizinische Objekt gesteuert werden. Bei Ultraschall-basierter Bildgebung (siehe unten) kann das medizinische Objekt damit durch einen manuell geführten Ultraschallkopf gesteuert werden. Durch eine solche direkte Steuerung des medizinischen Objekts kann ggf. auf eine dedizierte Nutzerschnittstelle zur Steuerung des robotisch geführten medizinischen Objekts verzichtet werden. Kommt der Nutzer mit dem medizinischen Objekt beispielsweise an eine Bifurkation, kann er nun äußerst elegant den richtigen Abzweig wählen und das medizinische Objekt weiterführen. Die Ausrichtung und der Vorschub bzw. der Rückzug erfolgen vollautomatisch aus der manuellen Bewegung des Ultraschallkopfes, welche in die ein oder mehreren Steuersignale „übersetzt“ wird. Ausrichtung und Vorschub bzw. Rückzug können alternativ auch durch Betätigung eines Eingabeelements ausgelöst werden. Insbesondere kann es sich bei dem Eingabeelement um einen Tastschalter handeln. Insbesondere kann das Eingabeelement an dem Ultraschallkopf angeordnet sein.
  • Gemäß einer weiteren Ausführungsform kann die Zielposition alternativ mittels einer Nutzerschnittstelle dynamisch festgelegt werden. Dazu kann das Bildgebungs- bzw. Interventionssystem (die Verarbeitungseinheit) eine Nutzerschnittstelle aufweisen, die derart ausgebildet ist, dass ein Nutzer die Zielposition innerhalb des Abbildungsbereichs, insbesondere basierend auf den von dem Abbildungsbereich aufgenommenen Bilddaten, durch eine Nutzereingabe festlegen kann. Die so festgelegte Zielposition kann dann der Verarbeitungseinheit durch die Nutzerschnittstelle bereitgestellt werden. Bevorzugt ist die Nutzerschnittstelle dabei zur Darstellung ein oder mehrerer Ansichten (Perspektiven) des Abbildungsbereichs ausgebildet. Bevorzugt ist die Nutzerschnittstelle ferner dazu ausgebildet, dass der Nutzer die definierte Position direkt in zumindest einer der dargestellten Ansichten festlegen kann, beispielsweise mittels eines kapazitiven und/oder resistiven Displays oder durch Betätigen eines anderen geeigneten Eingabeelements (z.B. durch „Mausklick“).
  • Auch bei dieser Ausführungsform hat der Nutzer den Vorteil, dass er die Zielposition intuitiv basierend auf dem Abbildungsbereich festzulegen. Bei aktivierter Zielpositions-Vorgabe kann diese, insbesondere Bild-basierte, Nutzereingabe direkt in entsprechende Steuersignale zur Bewegung des medizinischen Objekts umgesetzt werden. Zudem muss dabei keine Neuausrichtung des Abbildungsbereichs erfolgen, wodurch ggf. mögliche Verzögerungen und Unschärfen durch die Neuausrichtung vermieden werden können.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit dazu ausgebildet, die ein oder mehreren Steuersignale (die Bewegungstrajektorie) bei einer Änderung des Lagezustands und/oder der Zielposition relativ zum Lagezustand wiederholt zu bestimmen.
  • Durch die wiederholte Bestimmung der ein oder mehreren Steuersignale (bzw. ggf. der Bewegungstrajektorie) bei einer Änderung der momentanen Lage des Abbildungsbereichs und/oder der Zielposition kann die Position des medizinischen Objekts fortwährend an die Zielposition angepasst werden (sofern die Zielpositions-Vorgabe aktiviert ist).
  • Dabei kann die Bewegungstrajektorie insbesondere in Abhängigkeit eines Schwellwerts bezüglich der Änderung des Lagezustands und/oder der Zielposition wiederholt bestimmt werden. Dies hat den Vorteil, dass kleine unspezifische (und oft auch unbeabsichtigte) Veränderungen, die z.B. von leichten Erschütterungen in dem System herrühren können, oder die bei manueller (händischer) Führung der Bildgebungseinheit entstehen, nicht unmittelbar in Steuerbefehle für die Bewegungsvorrichtung umgesetzt werden.
  • Gemäß einer Ausführungsform ist die Bildgebungseinheit ferner derart ausgebildet, dass die Lage des Abbildungsbereichs durch einen Nutzer manuell und/oder durch eine Nutzereingabe über eine Nutzerschnittstelle eingestellt werden kann, wodurch der Nutzer die Lage des Abbildungsbereichs bequem verändern und somit das medizinische Objekt steuern kann.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit ferner derart ausgebildet, dass sie basierend auf einer Bewegungsinformation, und insbesondere basierend auf der momentanen Position des medizinischen Objekts, die Bildgebungseinheit steuert, und zwar insbesondere dahingehend, eine Optimierung der Abbildung des Abbildungsbereich durch Anpassen ein oder mehrerer Bildgebungsparameter der Bildgebungseinheit vorgenommen wird, und/oder die Lage des Abbildungsbereichs derart eingestellt wird, dass das medizinische Objekt (bzw. wenigstens der vorbestimmte Abschnitt) im Abbildungsbereich liegt.
  • Durch die Justage der Bildgebungseinheit in Abhängigkeit der Bewegungsinformation / der momentanen Position kann die Bildgebung optimiert werden. Hierfür können Bildgebungsparameter der Bildgebungseinheit optimiert werden. Bei einer Ultraschalleinheit können z.B. die Orientierung des Ultraschallkopfes, das Time-of-Flight Fenster, die Abstrahlrichtung der Ultraschallpulse, die Abstrahlbreite der Ultraschallpulse usw. angepasst werden, um die Bildgebung zu optimieren. Ferner können im Abbildungsbereich geeignete Abbildungsebenen für eine optimale Darstellung des medizinischen Objekts definiert werden. Die optionale Einstellung der Lage des Abbildungsbereichs in Abhängigkeit der momentanen Position des medizinischen Objekts ermöglicht eine Nachverfolgung des medizinischen Objekts, wodurch z.B. sichergestellt werden kann, dass dieses im Sichtbereich des Nutzers bleibt. Wird neben der momentanen Position auch eine weitere Bewegungsinformation wie etwa die Vorschubgeschwindigkeit des medizinischen Objekts berücksichtigt, kann dabei auch eine vorausschauende Verlagerung des Abbildungsbereichs erfolgen.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit derart ausgebildet, dass sie bei der Steuerung der Bildgebungseinheit basierend auf der Bewegungsinformation / der momentanen Position die Vorgabe der relativ zum Abbildungsbereich definierten Zielposition, insbesondere automatisch, deaktiviert. Dadurch kann sichergestellt werden, dass die Optimierung des Abbildungsbereichs keine ungewollte Bewegung des medizinischen Objekts induziert.
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit ferner insbesondere derart ausgebildet sein, dass sie die Positionierungsvorrichtung basierend auf der Bewegungsinformation derart ansteuert, dass der vordefinierte Abschnitt des medizinischen Objekts im Abbildungsbereich liegt.
  • Gemäß einer Ausführungsform weist die Bildgebungseinheit ein Ultraschallbildgebungsgerät mit einer Ultraschalleinheit auf, welche Ultraschalleinheit als Ultraschallkopf zur sonographischen Untersuchung des Untersuchungsobjekts ausgebildet ist.
  • Die Ausgestaltung der Bildgebungseinheit als Ultraschallbildgebungsgerät wirkt in synergetischer Art und Weise mit der erfindungsgemäßen Nachführung des medizinischen Objekts in Abhängigkeit der Bildgebung zusammen. So lässt sich der Ultraschallkopf einfach und intuitiv auf dem Untersuchungsobjekt bewegen, und zwar sowohl manuell (insbesondere händisch) durch den Nutzer als auch ggf. robotisch oder mit robotischer Unterstützung durch die Positionierungsvorrichtung. Damit steuert ein externer, insbesondere manuell geführter, Körperultraschallkopf ein eingebrachtes medizinisches Objekt.
  • Gemäß einer Ausführungsform ist die Positionierungsvorrichtung dazu ausgebildet, die Positionierung der Ultraschalleinheit auf dem Untersuchungsobjekt zur Aufnahme des Abbildungsbereichs in der jeweiligen Lage einzustellen. Insbesondere ist die Positionierungsvorrichtung dabei dazu ausgebildet, die Positionierung des Ultraschallkopfes auf dem Untersuchungsobjekt gemäß einer vorgegebenen Lage einzustellen. Die vorgegebene Lage kann dabei z.B. durch die (entsprechen ausgebildete) Verarbeitungseinheit bestimmt werden oder durch einen Nutzer vorgegeben werden.
  • Durch die Führung der Ultraschalleinheit (bzw. des Ultraschallkopfes) durch die Positionierungsvorrichtung kann die Präzision der Ausrichtung des Abbildungsbereichs erhöht werden und der Nutzer kann weiter entlastet werden.
  • Gemäß einer Ausführungsform weist das Bildgebungs- bzw. Interventionssystem ferner eine Darstellungseinheit auf, die derart ausgebildet ist, dass sie wenigstens eine erste Darstellung des Abbildungsbereichs anzeigt. Die Darstellungseinheit ist ferner derart ausgebildet, dass sie eine der ersten Darstellung überlagerte Markierung anzeigt, welche Markierung die Zielposition in der ersten Darstellung angibt.
  • Durch die überlagerte Darstellung des Abbildungsbereichs und der Markierung wird der Nutzer in die Lage versetzt, das Nachführen des medizinischen Objekts durch Positionsänderung der Bildgebung in Echtzeit visuell zu überprüfen. Dies ermöglicht eine intuitive und wenig fehleranfällige Bedienung. Dabei kann die erste Darstellung bevorzugt eine Seitensicht der Längsseite des medizinischen Objekts in dem Untersuchungsobjekt (sog. Long-Axis Ansicht) oder ein Querschnittsansicht des medizinischen Objekts im Wesentlichen senkrecht zur Längsrichtung (sog. Short-Axis Ansicht) sein oder zwischen beiden Ansichten (also Long- und Short-Axis Ansicht), insbesondere durch Nutzereingabe, umschaltbar sein. Die Darstellungseinheit ist dann derart ausgebildet, dass eine entsprechende Nutzereingabe eingegeben werden kann.
  • Gemäß einer Ausführungsform ist die Darstellungseinheit ferner zur Anzeige einer zweiten Darstellung des Abbildungsbereichs ausgebildet, wobei sich die Perspektive der zweiten Darstellung von der Perspektive der ersten Darstellung unterscheidet. Ferner ist die Darstellungseinheit zur Anzeige einer der zweiten Darstellung überlagerten Markierung ausgebildet, welche Markierung die definierte Position in der zweiten Darstellung angibt.
  • Mit anderen Worten werden dem Nutzer wenigstens zwei unterschiedliche Perspektiven des Interventionsprozesses angeboten, wodurch er die räumliche Lage des medizinischen Objekts im Untersuchungsobjekt besser beurteilen und steuern kann. Erste und zweite Darstellung können dabei gleichzeitig dargestellt werden (z.B. innerhalb einer graphischen Benutzerschnittstelle). Alternativ kann die Darstellungseinheit dazu ausgebildet sein, zwischen erster und zweiter Darstellung umzuschalten. Das Umschalten kann dabei automatisch z.B. durch ein Steuersignal der Verarbeitungseinheit geschehen. Die Verarbeitungseinheit kann dann dazu ausgebildet sein, der Darstellungseinheit ein entsprechendes Steuersignal zum Umschalten zwischen den beiden Darstellungen bereitzustellen. Das Steuersignal kann dabei insbesondere auf einer Bewegungsinformation bzw. dem Bewegungszustand oder der momentanen Lage des medizinischen Objekts basieren. Durch das automatische Umschalten kann die Unterstützung für den Nutzers bei der Durchführung des Eingriffs weiter verbessert werden. Insbesondere ist so ein Feedback zum Bewegungszustand möglich. Alternativ oder zusätzlich kann die Darstellungseinheit derart ausgebildet sein, dass zwischen erster und zweiter Darstellung durch Nutzereingabe umgeschaltet werden kann. Die Darstellungseinheit ist dann dazu ausgebildet, dass eine entsprechende Nutzereingabe eingegeben werden kann.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit ferner derart ausgebildet, dass sie bei Unterbrechung der Datenverbindung über die Datenschnittstelle eine Warnmeldung an einen Nutzer ausgibt, wobei die Datenschnittstelle insbesondere als drahtlose Datenschnittstelle ausgebildet ist.
  • Durch die Ausgabe einer Warnmeldung wird der Nutzer sofort davon in Kenntnis gesetzt, wenn die Führung des medizinischen Objekts durch die Bildgebungseinheit momentan nicht möglich ist, was die Sicherheit des Vorgangs weiter erhöht. Durch eine drahtlose Datenverbindung kann der Verkabelungsaufwand reduziert werden, was die Moduleigenschaften des Systems verbessert.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit derart ausgebildet, dass sie die Warnmeldung durch eine optische und/oder akustische und/oder haptische Warnung über eine Nutzerschnittstelle an einen Nutzer ausgibt. Weist die Bildgebungseinheit ein Ultraschallgerät auf, kann der Ultraschallkopf dazu ausgebildet sein, die Warnmeldung als haptische Warnmeldung auszugeben, beispielsweise in Form einer Vibration des Ultraschallkopfes.
  • Gemäß einem weiteren Aspekt wird ein Verfahren zur Steuerung eines Bildgebungs- bzw. Interventionssystems gemäß den vorgenannten Aspekten und Ausführungsformen bereitgestellt. Das Verfahren weist die folgenden Schritte auf: Aufnehmen von Bilddaten eines Abbildungsbereichs innerhalb des Untersuchungsobjekts mittels der Bildgebungseinheit; Ermitteln einer momentanen Position des medizinischen Objekts; Vorgeben einer Zielposition für das medizinische Objekt, welche Zielposition relativ zum Abbildungsbereich definiert ist (mit anderen Worten basierend auf dem Abbildungsbereich bzw. bezogen auf dem Abbildungsbereich definiert ist bzw. in vorgegebener Lagebeziehung zum Abbildungsbereich definiert ist); Bestimmen von ein oder mehreren Steuersignalen für die Bewegungsvorrichtung, welche ein oder mehreren Steuersignale geeignet sind, die Bewegungsvorrichtung dazu zu veranlassen, das medizinische Objekt von der momentanen Position zur Zielposition zu bewegen; Bereitstellen der ein oder mehreren Steuersignale an die Bewegungsvorrichtung über die Datenschnittstelle.
  • Bevorzugt weist das Verfahren weiterhin den Schritt des Veränderns der Lage des Abbildungsbereichs sowie ein anschließendes Wiederholen der vorgenannten Verfahrensschritte auf.
  • Bevorzugt weist das Verfahren weiterhin den Schritt des Ermittelns eines Lagezustands des Abbildungsbereichs bezüglich des Untersuchungsobjekts auf, wobei die ein oder mehreren Steuersignale basierend auf dem Lagezustand bestimmt werden.
  • Die Vorteile des vorgeschlagenen Verfahrens zur Steuerung eines Interventionssystems entsprechen im Wesentlichen den Vorteilen des vorgeschlagenen Systems. Merkmale, Vorteile oder alternative Ausführungsformen können ebenso auf die anderen beanspruchten Gegenstände übertragen werden und umgekehrt.
  • Die Erfindung betrifft in einem weiteren Aspekt ein Computerprogrammprodukt, das ein Programm umfasst und direkt in einen Speicher einer programmierbaren Recheneinheit ladbar ist und Programmmittel, z.B. Bibliotheken und Hilfsfunktionen, aufweist, um ein Verfahren zur Steuerung eines Interventionssystems insbesondere gemäß dem vorgenannten Aspekt auszuführen, wenn das Computerprogrammprodukt ausgeführt wird. Das Computerprogrammprodukt kann dabei eine Software mit einem Quellcode, der noch kompiliert und gebunden oder der nur interpretiert werden muss, oder einen ausführbaren Softwarecode umfassen, der zur Ausführung nur noch in die Verarbeitungseinheit zu laden ist. Durch das Computerprogrammprodukt kann das Verfahren zur Steuerung eines medizinischen Bildgebungsgeräts schnell, identisch wiederholbar und robust ausgeführt werden. Das Computerprogrammprodukt ist so konfiguriert, dass es mittels der Verarbeitungseinheit die erfindungsgemäßen Verfahrensschritte ausführen kann. Die Verarbeitungseinheit muss dabei jeweils die Voraussetzungen wie beispielsweise einen entsprechenden Arbeitsspeicher, eine entsprechende Grafikkarte oder eine entsprechende Logikeinheit aufweisen, so dass die jeweiligen Verfahrensschritte effizient ausgeführt werden können.
  • Das Computerprogrammprodukt ist beispielsweise auf einem computerlesbaren Medium gespeichert oder auf einem Netzwerk oder Server hinterlegt, von wo es in den Prozessor einer Verarbeitungseinheit geladen werden kann, der mit der Verarbeitungseinheit direkt verbunden oder als Teil der Verarbeitungseinheit ausgebildet sein kann. Weiterhin können Steuerinformationen des Computerprogrammprodukts auf einem elektronisch lesbaren Datenträger gespeichert sein. Die Steuerinformationen des elektronisch lesbaren Datenträgers können derart ausgebildet sein, dass sie bei Verwendung des Datenträgers in einer Verarbeitungseinheit ein erfindungsgemäßes Verfahren durchführen. Beispiele für elektronisch lesbare Datenträger sind eine DVD, ein Magnetband oder ein USB-Stick, auf welchem elektronisch lesbare Steuerinformationen, insbesondere Software, gespeichert ist. Wenn diese Steuerinformationen von dem Datenträger gelesen und in eine Verarbeitungseinheit gespeichert werden, können alle erfindungsgemäßen Ausführungsformen der vorab beschriebenen Verfahren durchgeführt werden. So kann die Erfindung auch von dem besagten computerlesbaren Medium und/oder dem besagten elektronisch lesbaren Datenträger ausgehen. Die Vorteile des vorgeschlagenen Computerprogrammprodukts entsprechen im Wesentlichen den Vorteilen der vorgeschlagenen Verfahren.
  • Weitere Besonderheiten und Vorteile der Erfindung werden aus den nachfolgenden Erläuterungen von Ausführungsbeispielen anhand von schematischen Zeichnungen ersichtlich. In diesem Zusammenhang genannte Modifikationen können jeweils miteinander kombiniert werden, um neue Ausführungsformen auszubilden. In unterschiedlichen Figuren werden für gleiche Merkmale die gleichen Bezugszeichen verwendet.
  • Es zeigen:
    • 1 eine schematische Darstellung einer Ausführungsform des vorgeschlagenen Systems zur Bildgebung eines robotisch bewegten medizinischen Objekts,
    • 2 eine schematische Darstellung einer grafischen Nutzerschnittstelle (Graphical User Interface) gemäß einer Ausführungsform,
    • 3 eine schematische Darstellung einer Bewegungsvorrichtung zur robotischen Bewegung eines medizinischen Objekts, und
    • 4 eine schematische Darstellung einer Ausführungsform des vorgeschlagenen Verfahrens zur Steuerung eines medizinischen Bildgebungsgeräts.
  • 1 zeigt eine schematische Darstellung einer vorteilhaften Ausführungsform eines Bildgebungs- bzw. Interventionssystems 1 (im Folgenden auch „System“ genannt).
  • Wie in 1 gezeigt, kann das System 1 eine Bildgebungseinheit 20 sowie eine Verarbeitungseinheit 22 aufweisen. Das System 1 weist zusätzlich eine Bewegungsvorrichtung CR auf, die derart ausgebildet ist, dass sie ein medizinisches Objekt MD robotisch insbesondere innerhalb eines Untersuchungsobjekts 31 und relativ zu diesem positionieren kann. Verarbeitungseinheit 22 und Bewegungsvorrichtung CR sind über eine Datenschnittstelle 35 verbunden.
  • Das Untersuchungsobjekt 31 kann als dreidimensionaler anatomischer Körper mit mehreren Hohlräumen aufgefasst werden, an dem mittels des medizinischen Objekts MD eine interventionelle Prozedur durchgeführt werden soll. Insbesondere kann das Untersuchungsobjekt 31 ein Patient sein. Dabei kann das Untersuchungsobjekt 31 vorteilhafterweise auf und/oder an einer Patientenlagerungsvorrichtung 32 angeordnet sein. Die Patientenlagerungsvorrichtung 32 kann zumindest teilweise beweglich sein. Die Patientenlagerungsvorrichtung 32 kann beispielsweise als chirurgischer Tisch ausgebildet sein. Die Patientenlagerungsvorrichtung 32 kann vorteilhafterweise eine Bewegungsvorrichtung BV aufweisen, welche Bewegungsvorrichtung BV mittels eines Signals 28 von der Verarbeitungseinheit 22 und/oder den Bedienelementen C11 steuerbar ist.
  • Das medizinische Objekt MD kann als, insbesondere langgestrecktes, therapeutisches bzw. chirurgisches Instrument und/oder diagnostisches Instrument ausgebildet sein. Insbesondere kann das medizinische Objekt MD biegsam und/oder mechanisch verformbar sein. Das medizinische Objekt MD kann, insbesondere an seinem distalen Ende ein Wirkglied aufweisen, das zur Verrichtung einer therapeutischen bzw. chirurgischen und/oder diagnostischen Aufgabe innerhalb des Untersuchungsobjekts 31 ausgebildet ist. Das medizinische Objekt MD kann beispielsweise als Katheter und/oder Endoskop und/oder Führungsdraht und/oder Gewebemanipulator ausgebildet sein. Die Bewegungsvorrichtung CR kann zur Positionierung und/oder Fernmanipulation des Wirkglieds ausgebildet sein. Beispielsweise kann die Bewegungsvorrichtung CR als Katheterroboter, minimalinvasiver chirurgischer Roboter, Endoskopieroboter usw. ausgebildet sein. Ferner kann die Bewegungsvorrichtung CR zur Bewegung des medizinischen Objekts MD entlang einer vordefinierten Bewegungstrajektorie ausgebildet sein. Vorteilhafterweise kann das medizinische Objekt MD über eine Einführschleuse an einem Eintrittspunkt IP in das Untersuchungsobjekt 31, z.B. in eine Gefäß- oder Organstruktur des Untersuchungsobjekts 31, eingeführt sein. Das medizinische Objekt kann einen vordefinierten Abschnitt VD aufweisen. Dieser kann das Wirkglied, eine Spitze des medizinischen Objekts, eine Markerstruktur zur besseren Sichtbarkeit in der Bildgebung, oder einen anderen Abschnitt des medizinischen Objekts MD aufweisen.
  • Die Bewegungsvorrichtung CR kann mittels eines Befestigungselements 71, beispielsweise einem Stativ und/oder Roboterarm, an der Patientenlagerungsvorrichtung 32, insbesondere bewegbar, befestigt sein. Vorteilhafterweise kann die Bewegungsvorrichtung CR dazu ausgebildet sein, das darin angeordnete medizinische Objekt MD zumindest entlang einer Längserstreckungsrichtung des medizinischen Objekts translatorisch zu bewegen. Ferner kann die Bewegungsvorrichtung CR dazu ausgebildet sein, das medizinische Objekt MD um die Längserstreckungsrichtung herum zu rotieren. Alternativ oder zusätzlich kann die Bewegungsvorrichtung CR zum Steuern einer Bewegung zumindest eines Teils des medizinischen Objekts MD, insbesondere an einem distalen Ende des medizinischen Objekts MD, insbesondere in Form des Wirkglieds, ausgebildet sein. Die Bewegungsvorrichtung CR kann insbesondere derart ausgebildet sein, dass sie mittels eines Steuerungssignals über die Datenschnittstelle 35 von der Verarbeitungseinheit 22 zur Positionierung des medizinischen Objekts MD ansteuerbar ist. Umgekehrt kann die Bewegungsvorrichtung CR zudem zum Bereitstellen einer Information hinsichtlich eines Bewegungs- oder Positionierungszustands (Bewegungsinformation) des medizinischen Objekts MD (und insbesondere des Wirkglieds) über die Datenschnittstelle 35 an die Verarbeitungseinheit 22 ausgebildet sein.
  • Die Bildgebungseinheit 20 ist gemäß der vorliegenden Ausführungsform als Ultraschall-Bildgebungssystem ausgebildet. Als solche kann die Bildgebungseinheit 20 eine Ultraschalleinheit US aufweisen, die als Ultraschallkopf oder Ultraschallsonde ausgebildet sein kann. Die Ultraschalleinheit US kann im Allgemeinen ein oder mehrere Ultraschallgeber sowie ein oder mehrere Ultraschallsensoren aufweisen. Die Ultraschallgeber sind zur Abgabe von Ultraschall in das Untersuchungsobjekt 31 ausgebildet. Die Ultraschallsensoren erfassen die von dem Untersuchungsobjekt 31 und ggf. dem darin eingeführten medizinischen Objekt zurückkommenden Ultraschallsignale. Time-of-Flight-Messungen können dabei eine dreidimensionale Darstellung ermöglichen. Der dabei abgebildete Bereich (Abbildungsbereich AB) wird dabei teils durch die Position der Ultraschalleinheit US auf dem Untersuchungsobjekt 31 und teils durch ein oder mehrere Bildgebungsparameter der Ultraschalleinheit US definiert. So können beispielsweise die räumliche Abstrahlbreite, der Ausbreitungswinkel und/oder die Ausbreitungsrichtungen der Ultraschallpulse verändert werden. Ferner können beispielsweise ein oder mehrere Abbildungsebenen definiert werden, aus denen Ultraschallsignale ausgewertet werden. Üblicherweise werden zumindest zwei sich schneidende Abbildungsebenen definiert, die eine Perspektive längs des medizinischen Objekts (d.h. längs der Längserstreckungsrichtung; sog. Long-Axis-Ansicht, LAV, vgl. 2) und eine Perspektive senkrecht zur Längserstreckungsrichtung des medizinischen Objekts ermöglichen, in der das medizinische Objekt dann mehr oder weniger punktförmig erscheint (sog. Short-Axis Ansicht, SAV; vgl. 2). Weiterhin können auch mehr als zwei Abbildungsebenen definiert werden, was die gleichzeitige Darstellung des medizinischen Objekts MD und des umgebenden Teils des Untersuchungsobjekts 31 weiter begünstigen kann.
  • Die Bildgebungseinheit 20 ist derart einstellbar, dass die Ultraschalleinheit US einen definierten Bereich innerhalb des Untersuchungsobjekts 31 abbildet, den Abbildungsbereich AB. Der Abbildungsbereich AB weist einen definierten Lagezustand (oder momentane Lage) relativ zum Untersuchungsobjekt 31 auf, welcher von der Position der Ultraschalleinheit US und den Bildgebungsparametern abhängt. Die Bildgebungseinheit 20 ist ferner derart ausgebildet, dass der Lagezustand des Abbildungsbereichs AB veränderbar ist - etwa durch Anpassen der Bildgebungsparameter oder durch eine Positionsänderung der Ultraschalleinheit US. Ansteuersignale zur Einstellung des Lagezustands können beispielsweise von der Verarbeitungseinheit 22 über eine geeignete Datenschnittstelle 36 übermittelt werden. Ansteuersignale können dabei auf einer Nutzereingabe beruhen, die dieser über eine Nutzerschnittstelle 41, 42, z.B. in Form eines Joysticks, Touchpads, einer Mouse oder Tastatur, in das System 1 eingibt. Alternativ können Ansteuersignale auch ohne Nutzervorgabe automatisch durch die Verarbeitungseinheit 22 generiert werden.
  • Die Positionierung der Ultraschalleinheit US kann händisch durch einen Nutzer vorgenommen werden. Eine Feineinstellung des Lagezustands kann dann durch Anpassung der Bildgebungsparameter geschehen. Ferner kann die Bildgebungseinheit 20 eine Positionierungsvorrichtung 21 aufweisen, die zur, bevorzugt robotischen, Positionierung und/oder Bewegung der Ultraschalleinheit US insbesondere auf dem Untersuchungsobjekt 31 ausgebildet ist. Die Positionierungsvorrichtung 21 kann durch Steuersignale gesteuert werden, die der Positionierungsvorrichtung 21 von der Verarbeitungseinheit 22 über die Datenschnittstelle 36 übermittelt werden. Umgekehrt kann die Bildgebungseinheit 20 der Verarbeitungseinheit 22 Lageinformation hinsichtlich des Lagezustands über die Datenschnittstelle 36 zukommen lassen. Diese Lageinformationen können die vorgenannten Bildgebungsparameter, die Bilddaten an sich sowie Positionierungsparameter von der Positionierungsvorrichtung 21 aufweisen.
  • Beispielhaft kann die Positionierungsvorrichtung 21 als ein 6-DOF-(Degrees Of Freedom) oder ein 7-DOF-Roboter ausgebildet sein. In der bevorzugten Ausgestaltung wird ein sog. Leichtbauroboter (LBR) eingesetzt, der vorzugsweise modular aufgebaut und dem menschlichen Arm nachempfunden ist. Derartige Roboter haben bis zu sieben Freiheitsgrade und ermöglichen im Vergleich zu den klassischen Industrierobotern eine erhöhte Flexibilität und Manipulierbarkeit. Eine integrierte Sensorik in Verbindung mit geeigneten Regelungsalgorithmen ermöglicht es, äußeren Kräften nachzugeben sowie sensible Bewegungen und komplexe Bewegungsabläufe durchzuführen, wie es z.B. beim Aufsetzen der Ultraschalleinheit US auf dem Untersuchungsobjekt 31 erforderlich sein kann. Die Sensorik ermöglicht ferner die Ermittlung von Positionierungsparametern zur Weitergabe an die Verarbeitungseinheit 22. Wie in 1 gezeigt, kann die Positionierungsvorrichtung 21 an der Patientenlagerungsvorrichtung 32, insbesondere bewegbar, befestigt sein. Alternativ kann die Positionierungsvorrichtung 21 separat von der Patientenlagerungsvorrichtung 32 vorgesehen sein und beispielsweise ein eigenes Stativ aufweisen.
  • Alternativ oder zusätzlich kann die Bildgebungseinheit 20 auch ein oder mehrere von einem Ultraschall-Bildgebungssystem abweichende medizinische Bildgebungsgeräte aufweisen. Beispielsweise kann die Bildgebungseinheit 20 ein medizinisches C-Bogen-Röntgengerät mit einer Detektoreinheit und einer Röntgenquelle aufweisen. Zur Aufnahme der Bilddaten und Einstellung eines definierten Lagezustands des abgebildeten Bereichs relativ zum Untersuchungsobjekt 31 kann der Arm des medizinischen C-Bogen-Röntgengeräts beweglich um ein oder mehrere Achsen herum gelagert sein. Ferner kann das medizinische C-Bogen-Röntgengerät eine Positionierungsvorrichtung umfassen, welche eine Bewegung des medizinischen C-Bogen-Röntgengeräts im Raum ermöglicht. Gemäß einer beispielhaften Ausführungsform kann die Bildgebungseinheit 20 ein Ultraschall-Bildgebungssystem und ein C-Bogen-Röntgengerät aufweisen.
  • Die Verarbeitungseinheit 22 kann ferner eine Nutzerschnittstelle 41, 42 aufweisen. Die Nutzerschnittstelle 41, 42 kann ein Eingabeelement 42, beispielsweise eine Tastatur, und/ oder eine Darstellungseinheit 41, beispielsweise ein Monitor und/oder Display, aufweisen. Das Eingabeelement 42 kann dabei in die Darstellungseinheit 41 integriert sein, beispielsweise in Form eines kapazitiven und/oder resistiven Eingabedisplays. Dabei kann durch eine Eingabe eines Nutzers an dem Eingabeelement 42 eine, insbesondere ergänzende, Steuerung der Bildgebungseinheit 20 (der Positionierungseinheit 21) und/oder der Bewegungsvorrichtung CR und/oder der Patientenlagerungsvorrichtung 32 ermöglicht werden. Hierfür kann das Eingabeelement 42 beispielsweise ein Signal über eine entsprechende Datenschnittstelle 26 an die Verarbeitungseinheit 22 senden.
  • Ferner kann die Darstellungseinheit 41 dazu ausgebildet sein, Informationen und/oder graphische Darstellungen von Informationen, insbesondere Bilddaten, der Bildgebungseinheit 20 z.B. in einer graphischen Benutzerschnittstelle GUI anzuzeigen. Hierfür kann die Verarbeitungseinheit 22 beispielsweise über eine Datenschnittstelle 25 ein Steuersignal an die Darstellungseinheit 41 senden.
  • Die verschiedenen Komponenten des Interventionssystems 1 können durch die Verarbeitungseinheit 22 koordiniert werden. Ein Datenaustausch ist über die Datenschnittstellen 25, 26, 35, 36 gewährleistet. Die Verarbeitungseinheit 22 kann als zentrale Steuereinheit, beispielsweise als Steuergerät mit einem oder mehreren Prozessoren ausgebildet sein. Alternativ kann die Verarbeitungseinheit 22 als Teil der Bildgebungseinheit 20 oder der Bewegungsvorrichtung CR ausgebildet sein. Als weitere Ausführungsform können die nachstehend beschriebenen Funktionalitäten der Verarbeitungseinheit 22 auch dezentral auf mehrere Recheneinheiten oder Steuergeräte verteilt sein.
  • Gemäß einer Ausführungsform ist die Verarbeitungseinheit 22 derart ausgebildet, die Verbindung zwischen den Komponenten über die Datenschnittstellen 25, 26, 35 und 36 des Interventionssystems 1 zu überwachen und eine Warnmeldung an einen Nutzer auszugeben, Falls die Verbindung unterbrochen oder fehlerhaft ist. Die Warnmeldung kann beispielsweise als optische und/oder akustische Warnmeldung ausgeben werden, insbesondere durch die Darstellungseinheit 41. Alternativ oder zusätzlich kann die Warnmeldung auch als haptische Warnmeldung für den Nutzer ausgestaltet sein. Insbesondere kann das Eingabeelement 42 dazu ausgebildet sein, eine haptische Warnmeldung auszugeben, etwa durch Aufprägen einer Vibration auf das Eingabeelement 42. Auch ein Ultraschallkopf kann derart ausgebildet sein, dass er eine Warnmeldung, z.B. durch Auslösen einer Vibration des Ultraschalkopfes, haptisch wahrnehmbar macht.
  • Allgemein ist die Verarbeitungseinheit 22 derart ausgebildet, dass sie basierend auf dem Lagezustand des Abbildungsbereichs AB eine Bewegung des medizinischen Objekts MD steuert. Dies ermöglicht beispielsweise ein Nachführen des medizinischen Objekts MD mit der Bildgebung, bzw. ein Navigieren des medizinischen Objekts MD durch ein gezieltes Verändern des Lagezustands des Abbildungsbereichs AB. Mit anderen Worten wird es so einem Nutzer ermöglicht, eine Bewegung des medizinischen Objekts durch eine Bewegung der Ultraschalleinheit US zu steuern, die entweder händisch oder robotergestützt erfolgt. Robotergestützt kann dabei eine vollautomatische oder halbautomatische Bewegung umfassen. Eine halbautomatische Bewegungssteuerung kann dabei beispielsweise beinhalten, lediglich das Gewicht der Ultraschalleinheit US robotisch abzustützen, sodass der Nutzer die Ultraschalleinheit US mit minimaler Kraft bewegen kann (sog. „Zero-Gravity-Mode“). Dabei kann das Navigieren des medizinischen Objekts MD so erfolgen, dass der vordefinierter Abschnitt VD des medizinischen Objekts MD zu einer Zielposition TP im Untersuchungsobjekt 31 bewegt wird.
  • Umgekehrt (bzw. zusätzlich) kann die Verarbeitungseinheit 22 auch derart ausgebildet sein, dass sie den Lagezustand des Abbildungsbereichs AB basierend auf dem Bewegungszustand des medizinischen Objekts MD steuert und so die Bildgebung dem medizinischen Objekt MD nachführt. Die Verarbeitungseinheit 22 kann mit anderen Worten dazu ausgebildet sein, wenigstens in Abhängigkeit der momentanen Position des medizinischen Objekts MD einen Lagezustand des Abbildungsbereichs AB so zu steuern, dass der vordefinierte Abschnitt VD des medizinischen Objekts MD in dem Abbildungsbereichs AB enthalten ist und so mittels der durch die Bildgebungseinheit 20 aufgenommenen Bilddaten abgebildet werden kann. Die Anpassung des Lagezustands kann dabei bevorzugt mittels der Positionierungsvorrichtung 21 erfolgen.
  • Zur wechselseitigen Steuerung des Lagezustands des abgebildeten Bereichs AB in Abhängigkeit des Bewegungszustands des medizinischen Objekts MD kann die Verarbeitungseinheit 22 dazu ausgebildet sein, den Lage- und Bewegungszustand (bzw. der momentanen Position des medizinischen Objekts MD) aus den verfügbaren Basisinformationen zu ermitteln (bzw. zu berechnen). Basisinformationen zur Ermittlung des Lagezustands werden im Folgenden auch als Lageinformationen bezeichnet; Basisinformationen zur Ermittlung des Bewegungszustands (wenigstens der momentanen Position des medizinischen Objekts MD) als Bewegungsinformationen. Die Verarbeitungseinheit 22 kann derart eingerichtet sein, dass sie solche Basisinformationen von den Komponenten des Systems 1 bezieht und entsprechend verarbeitet. Dazu kann die Verarbeitungseinheit 22 z.B. mit der Bildgebungseinheit 20 und/oder der Bewegungsvorrichtung CR drahtgebunden oder drahtlos über Datenschnittstellen 35, 36 in Verbindung stehen.
  • So kann die Verarbeitungseinheit 22, z.B. von der Bildgebungseinheit 20, Lageinformationen erhalten, aus denen sich der Lagezustand des Abbildungsbereichs AB in Bezug auf das Untersuchungsobjekt 31 ermitteln lässt. Beispielsweise können diese Lageinformationen ein oder mehrere Bildgebungsparameter umfassen, welche z.B. die Einstellung der Ultraschallgeber und Ultraschallempfänger der Ultraschalleinheit US beschreiben. Alternativ dazu oder zusätzlich können die Lageinformationen ein oder mehrere Positionierungsparameter umfassen, welche die Position der Ultraschalleinheit US definieren. Beispielsweise können die Positionierungsparameter eine Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz der Ultraschalleinheit US in Bezug auf das Untersuchungsobjekt 31 aufweisen. Die Positionierungsparameter können dabei von der Positionierungseinheit 21 bereitgestellt werden. Alternativ kann die Lageinformation durch Triangulation ermittelt werden. Dazu können beispielsweise ein oder mehrere Trackingsonden an der Ultraschalleinheit US angeordnet werden, welche Trackingsonden Messsignale abgeben, die von einer Relativposition zu einem vordefinierten Bezugspunkt abhängig sind. Die Trackingsonden können dabei z.B. als Spulenelemente ausgebildet sein, deren Messsignale von ihrer jeweiligen Position in einem elektromagnetischen Feld abhängen, das von einer geeigneten Felderzeugungseinheit erzeugt wird. Vorteilhafterweise werden in einer solchen Ausgestaltung drei Spulenelemente verwendet, um sämtliche Bewegungsfreiheitsgrade adäquat zu erfassen. Ferner können auch Bilddaten aus dem Abbildungsbereich AB Lageinformationen enthalten. Die Verarbeitungseinheit 22 kann derart ausgebildet sein, dass sie den Lagezustand des Abbildungsbereichs AB in Bezug auf das Untersuchungsobjekt 31 durch Bildverarbeitung aus Bilddaten ermittelt. Hierfür kann sich die Verarbeitungseinheit 22 beispielsweise Algorithmen bedienen, welche anatomische Landmarken in medizinischen Bilddaten erfassen, wodurch sich der Abbildungsbereich AB mit dem Koordinatensystem des Untersuchungsobjekts 31 in Bezug setzen lässt. Gemäß einer vorteilhaften Ausführungsform können hierbei ein oder mehrere trainierte Funktionen, beispielsweise in Form ein oder mehrerer neuronaler Netze, verwendet werden, die für die Erfassung anatomischer Landmarken in (Ultraschall-)Bilddaten trainiert wurden. Die Verarbeitungseinheit 22 kann derart ausgebildet sein, dass sie basierend auf ein oder mehrerer der vorgenannten Lageinformationen einen Lagezustand des Abbildungsbereichs AB bezüglich des Untersuchungsobjekts 31 ermittelt.
  • Bewegungsinformationen kann die Verarbeitungseinheit 22 von der Bewegungsvorrichtung CR beziehen. Eine Bewegungsinformation kann beispielsweise ein oder mehrere Bewegungsparameter umfassen, welche den Bewegungszustand des medizinischen Objekts MD definieren. Beispielsweise können die Bewegungsparameter eine Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz des medizinischen Objekts MD (insbesondere des vordefinierten Abschnitts VD) aufweisen. Alternativ oder zusätzlich kann die Verarbeitungseinheit 22 Bewegungsinformationen über die Bildgebungseinheit 20 in Form von Bilddaten beziehen. Der Bewegungszustand des medizinischen Objekts MD kann dann durch Auswertung der Bilddaten aus dem Abbildungsbereich AB ermittelt werden. Hierfür kann sich die Verarbeitungseinheit 22 beispielsweise Algorithmen bedienen, welche das medizinische Objekt MD in den Bilddaten identifizieren. Gemäß einer vorteilhaften Ausführungsform können hierbei ein oder mehrere trainierte Funktionen, beispielsweise in Form eines oder mehrerer neuronaler Netze, verwendet werden, die für die Erfassung medizinischer Objekte MD in (Ultraschall-)Bilddaten trainiert wurden. Um die Sichtbarkeit des medizinischen Objekts MD in den Bilddaten zu erhöhen, kann die Ultraschallsignatur insbesondere des vordefinierten Abschnitts VD durch geeignete Beschichtungen und Geometrien und/oder durch Markerstrukturen erhöht werden. Auch der Einsatz aktiver Ultraschall-Geber an dem medizinischen Objekt MD zur Ortung desselben ist möglich. Ferner können Bewegungsinformationen auch durch den Einsatz der vorgenannten Trackingsensoren an dem medizinischen Objekt MD erhalten und der Verarbeitungseinheit 22 bereitgestellt werden.
  • Um den Bewegungszustand und insbesondere die Position des medizinischen Objekts MD basierend auf dem Lagezustand des Abbildungsbereichs AB zu steuern, kann die Verarbeitungseinheit 22 ferner dazu ausgebildet sein, dass sie die Bildgebungseinheit 20 mit der Bewegungsvorrichtung CR registriert und so eine Registrierung zwischen dem Lage- und Bewegungszustand herstellt. Die Registrierung ist ein Vorgang, der das Koordinatensystem der Bildgebungseinheit 20 mit dem der Bewegungsvorrichtung CR in Bezug setzt. Dies kann über ein gemeinsames Koordinatensystem geschehen (z.B. kann das Koordinatensystem des Untersuchungsobjekts 31 als ein solches gemeinsames Koordinatensystem fungieren). Durch die Registrierung kann dann z.B. eine Lageänderung des Abbildungsbereichs AB oder die Vorgabe einer Zielposition TP innerhalb des Abbildungsbereichs AB in eine Anweisung für eine Positionsänderung des medizinischen Objekts MD in dem Untersuchungsobjekt 31 umgerechnet werden (da der Lagezustand relativ zum Untersuchungsobjekt 31 definiert ist). Die Registrierung kann z.B. auf Grundlage eines kalibrierten Ausgangszustands erfolgen, für den die Beziehung zwischen den Koordinatensystemen bekannt ist. Lagezustand und Bewegungszustand können dann als Veränderungen gegenüber einem solchen kalibrierten Ausgangszustand erfasst werden. Alternativ ist eine bildbasierte Registrierung denkbar, bei dem Lage- und Bewegungszustand beispielsweise relativ zu anatomischen Landmarken des Untersuchungsobjekts 31 definiert werden. Ferner kann die Relativbeziehung zwischen Lage- und Bewegungszustand und somit eine Registrierung auch durch Auswertung von Trackingsensoren an der Bildgebungseinheit 20 und/oder dem medizinischem Objekt MD erreicht werden. Auch eine Kombination der vorgenannten Registrierungsverfahren ist möglich.
  • Beispielhafte Darstellungsformen der durch die Darstellungseinheit 41 dargestellten Information sind in 2 gezeigt. Vorzugsweise wird die Information in einer graphischen Benutzerschnittstelle GUI dargestellt. Vorzugsweise sind die Verarbeitungseinheit 22 und die Darstellungseinheit 41 dazu ausgebildet, dass sie wenigstens zwei unterschiedliche Darstellungen LAV, SAV des Abbildungsbereichs AB darstellen, welche Darstellungen LAV, SAV insbesondere unterschiedliche Perspektiven des Abbildungsbereichs AB zeigen. Wie in 2 gezeigt, kann eine dieser Darstellungen eine Längsansicht entlang der Längserstreckungsrichtung des medizinischen Objekts MD sein (Long-Axis-Ansicht, LAV), während die andere Darstellung einer Perspektive mit Blickrichtung parallel zur Längserstreckungsrichtung des medizinischen Objekts MD entspricht (Short-Axis-Ansicht SAV). Während es die Long-Axis-Ansicht LAV dem Nutzer gestattet, die Position des medizinischen Objekts MD in Vorschubrichtung abzuschätzen, ist die Short-Axis-Ansicht SAV geeignet, die Position des medizinischen Objekts MD quer zur Vorschubrichtung zu prüfen. Alternativ zur in 2 gezeigten simultanen Darstellung mehrerer Darstellungen LAV, SAV, können die Verarbeitungseinheit 22 und die Darstellungseinheit 41 ferner dazu ausgebildet sein, automatisch oder auf eine Nutzereingabe hin zwischen verschiedenen Darstellungen LAV, SAV umzuschalten, insbesondere zwischen der Long-Axis-Ansicht LAV und der Short-Axis-Ansicht SAV.
  • Verarbeitungseinheit 22 und Darstellungseinheit 41 können ferner dazu ausgebildet sein, dass sie die Zielposition TP für das medizinische Objekt MD innerhalb des Abbildungsbereichs AB anzeigen. Die Zielposition TP kann dabei durch eine Markierung M dargestellt sein. Die Markierung M kann den dargestellten Bilddaten dabei überlagert sein, z.B., wie in 2 gezeigt, als eine Art Fadenkreuz. Die Zielposition TP kann dabei bezüglich des Abbildungsbereichs AB fest vorgegeben sein. Beispielsweise kann die Zielposition TP in der Mitte des Abbildungsbereichs AB festgelegt sein. Die Zielposition TP kann dann relativ zum Untersuchungsobjekt 31 durch Verändern des Lagezustands des Abbildungsbereichs AB in Bezug auf das Untersuchungsobjekt 31 eingestellt werden. Mit anderen Worten kann also durch ein Verfahren der Bildgebungseinheit 20 die Zielposition TP in Bezug auf das Untersuchungsobjekt 31 verändert werden. Die Veränderung kann dabei durch manuelles Führen der Ultraschalleinheit US oder robotergestützt durch die Positionierungsvorrichtung 21 erfolgen. Die Befehle zur robotischen Einstellung des Lagezustands können dabei von einem Nutzer über das Eingabeelement 42 vorgegeben werden. Um eine dreidimensionale Führung zu ermöglichen, können Verarbeitungseinheit 22 und Darstellungseinheit 41 auch derart ausgebildet sein, dass der Nutzer bei zur Navigation der Zielposition TP zwischen mehreren komplementären Perspektiven LAV, SAV auswählen kann. So kann beispielsweise in der Long-Axis Ansicht LAV der Vorschub längs des medizinischen Objekts MD gesteuert werden, während die Short-Axis Ansicht SAV eine Positionierung lateral dazu erlaubt. Die Nutzereingaben zur Navigation der Zielposition TP beziehen sich dann jeweils auf die gerade ausgewählte Perspektive SAV oder LAV.
  • Zusätzlich oder alternativ dazu können Verarbeitungseinheit 22 und Darstellungseinheit 41 auch derart ausgebildet sein, dass der Nutzer die Zielposition TP in dem Abbildungsbereich AB flexibel setzen kann. Dazu kann der Nutzer beispielsweise über das Eingabeelement 42 einen Punkt in dem Abbildungsbereich AB bzw. den dargestellten Perspektiven LAV, SAV markieren, etwa durch Mausklick oder Berühren eines kapazitiven und/oder resistiven Displays.
  • Da der Lagezustand des Abbildungsbereichs AB relativ zum Untersuchungsobjekt 31 bekannt ist, ist auch die Position der Zielposition TP bezüglich des Untersuchungsobjekts 31 bekannt. Dies ermöglicht es nun, eine Bewegungstrajektorie zu bestimmen, die das medizinische Objekt MD zur Zielposition TP führt.
  • Die Verarbeitungseinheit 22 kann ferner dazu ausgebildet sein, eine Bewegung der Patientenlagerungsvorrichtung 32 derart zu steuern, dass die Bildgebungseinheit 20 relativ zum Untersuchungsobjekt 31 geeignet positioniert ist.
  • 3 zeigt eine schematische Darstellung einer Bewegungsvorrichtung CR zur robotischen Bewegung eines medizinischen Objekts MD gemäß einer Ausführungsform. Vorteilhafterweise kann die Bewegungsvorrichtung CR ein, insbesondere bewegbares und/oder verfahrbares, Befestigungselement 71 aufweisen. Ferner kann die Bewegungsvorrichtung CR ein Kassettenelement 74 aufweisen, welches zur Aufnahme zumindest eines Teils des medizinischen Objekts MD ausgebildet ist. Ferner kann die Bewegungsvorrichtung CR ein Bewegungselement 72 aufweisen, welches an dem Befestigungselement 71, beispielsweise einem Stativ und/oder Roboterarm, befestigt ist. Zudem kann das Befestigungselement 71 dazu ausgebildet sein, das Bewegungselement 72 an der Patientenlagerungsvorrichtung 32, insbesondere bewegbar, zu befestigen. Ferner kann das Bewegungselement 72 vorteilhafterweise zumindest ein, beispielsweise drei, Aktuatorelement 73 aufweisen, beispielsweise einen Elektromotor, wobei die Verarbeitungseinheit 22 zum Steuern des zumindest einen Aktuatorelements 73 ausgebildet ist. Vorteilhafterweise kann das Kassettenelement 74, insbesondere mechanisch und/oder elektromagnetisch und/oder pneumatisch, an das Bewegungselement 72, insbesondere das zumindest eine Aktuatorelement 73, koppelbar sein. Dabei kann das Kassettenelement 74 ferner zumindest ein Übertragungselement 75 aufweisen, welches durch die Kopplung zwischen dem Kassettenelement 74 und dem Bewegungselement 72, insbesondere dem zumindest einen Aktuatorelement 73, bewegbar ist. Insbesondere kann das zumindest eine Übertragungselement 75 an das zumindest eine Aktuatorelement 73 bewegungsgekoppelt sein. Ferner kann das Übertragungselement 75 dazu ausgebildet sein, eine Bewegung des Aktuatorelements 73 auf das medizinische Objekt MD derart zu übertragen, dass das medizinische Objekt MD entlang einer Längserstreckungsrichtung des medizinischen Objekts MD bewegt wird und/oder dass das medizinische Objekt MD um die Längserstreckungsrichtung herum rotiert wird. Das zumindest eine Übertragungselement 75 kann beispielsweise eine Rolle und/oder Walze und/oder Blende aufweisen.
  • Vorteilhafterweise kann das Bewegungselement 72 mehrere, insbesondere unabhängig steuerbare, Aktuatorelemente 73 aufweisen. Ferner kann das Kassettenelement 74 mehrere Übertragungselemente 75, insbesondere zu jedem der Aktuatorelemente 73 wenigstens ein bewegungsgekoppeltes Übertragungselement 75, aufweisen. Hierdurch kann eine, insbesondere unabhängige und/oder gleichzeitige, Bewegung des medizinischen Objekts MD entlang verschiedener Bewegungsfreiheitsgrade ermöglicht werden.
  • Ferner kann die Bewegungsvorrichtung CR, insbesondere das zumindest eine Aktuatorelement 73, mittels des Signals 35 von der Verarbeitungseinheit 22 steuerbar sein. Hierdurch kann die Bewegung des medizinischen Objekts MD von der Verarbeitungseinheit 22, insbesondere mittelbar, gesteuert werden. Zudem kann eine Ausrichtung und/oder Position der Bewegungsvorrichtung CR relativ zum Untersuchungsobjekt 31 durch eine Bewegung des Befestigungselements 71 anpassbar sein. Die Bewegungsvorrichtung CR ist vorteilhafterweise zum Bereitstellen von Bewegungsinformationen an die Verarbeitungseinheit 22 ausgebildet.
  • Hierfür kann die Bewegungsvorrichtung CR beispielsweise eine Sensoreinheit 77 aufweisen, die zur Erfassung einer Relativbewegung des medizinischen Objekts MD relativ zur Bewegungsvorrichtung CR ausgebildet ist. Dabei kann die Sensoreinheit 77 insbesondere einen Encoder, beispielsweise einen Radencoder und/oder einen Walzenencoder, und/oder einen optischen Sensor, beispielsweise ein Barcodescanner und/oder ein Laserscanner und/oder eine Kamera, und/oder einen elektromagnetischen Sensor aufweisen. Beispielsweise kann die Sensoreinheit 77 in das Bewegungselement 72, insbesondere das zumindest eine Aktuatorelement 73, und/oder das Kassettenelement 74, insbesondere das zumindest eine Übertragungselement 75, zumindest teilweise integriert angeordnet sein. Alternativ oder zusätzlich kann die Bewegungsvorrichtung CR ausgebildet sein, basierend auf einem Steuerparameter zum Steuern des zumindest einen Aktuatorelements 73 und/oder des zumindest einen Übertragungselements 74 die Bewegungsinformation bereitzustellen. Ferner kann die Sensoreinheit 77 zum Bereitstellen der Bewegungsinformation an die Verarbeitungseinheit 22 ausgebildet sein. Die Sensoreinheit kann insbesondere zur Erfassung der Relativbewegung des medizinischen Objekts MD durch eine Erfassung des medizinischen Objekts MD relativ zur Bewegungsvorrichtung ausgebildet sein. Alternativ oder zusätzlich kann die Sensoreinheit 77 zur Erfassung einer Bewegung und/oder Lageänderung von Komponenten der Bewegungsvorrichtung CR ausgebildet sein, welche Komponenten mit dem medizinischen Objekt MD bewegungsgekoppelt sind, beispielsweise das zumindest eine Aktuatorelement 73 und/oder das zumindest eine Übertragungselement 74.
  • Dabei kann die Bewegungsvorrichtung CR insbesondere dazu ausgebildet sein, die Bewegungsinformation aufweisend eine Information zu einer Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz des medizinischen Objekts MD bereitzustellen. Ferner kann die Verarbeitungseinheit 22 dazu ausgebildet sein, die Positionierung des medizinischen Bildgebungsgeräts bei einer Änderung der Bewegungsinformation, insbesondere in Abhängigkeit eines Schwellwerts bezüglich der Änderung der Bewegungsinformation, wiederholt zu bestimmen. Eine Änderung der Bewegungsinformation kann dabei eine Änderung der Position und/oder Ausrichtung des vordefinierten Abschnitts VD des medizinischen Objekts MD in dem Untersuchungsobjekt 31, z.B., in einer Gefäßstruktur beschreiben.
  • 4 zeigt eine schematische Darstellung einer Ausführungsform des vorgeschlagenen Verfahrens zur Steuerung des Interventionssystems 1. Die Reihenfolge der Verfahrensschritte ist weder durch die dargestellte Abfolge noch durch die gewählte Nummerierung beschränkt. So kann die Reihenfolge der Schritte ggf. vertauscht und einzelne Schritte können weggelassen werden.
  • Ein erster Schritt S10 ist auf die Aufnahme von Bilddaten aus dem Abbildungsbereich AB mit der Bildgebungseinheit 20 gerichtet. In einem optionalen Schritt S11 können ausgehend von den Bilddaten ein oder mehrere Darstellungen LAV, SAV erstellt werden, die einem Nutzer über die Darstellungseinheit 41 in einem optionalen Schritt S12 ausgegeben werden können. In einem weiteren optionalen Teilschritt S13 kann eine Nutzereingabe dahingehend empfangen werden, die Ausgabe der zwischen verschiedenen Darstellungen LAV, SAV umzuschalten, woraufhin die Ausgabe in einem weiteren optionalen Teilschritt S14 zwischen den verschiedenen Darstellungen umgeschaltet werden kann.
  • Schritt S20 ist auf das Bestimmen des Lagezustands des Abbildungsbereichs AB in Bezug auf das Untersuchungsobjekt 31 gerichtet. Zur Bestimmung des Lagezustands kann eine Lageinformation bereitgestellt werden (optionaler Teilschritt S21). Die Lageinformation kann z.B. von der Bildgebungseinheit 20 in Form von Bilddaten des Abbildungsbereichs AB und/oder Positionierungsparametern der Bildgebungseinheit 20 bereitgestellt werden. In einem weiteren optionalen Teilschritt S22 kann diese Lageinformation von der Verarbeitungseinheit 22 empfangen werden. Alternativ kann die Lageinformation in Teilschritt S21 von der Verarbeitungseinheit 22 selbst bereitgestellt werden, etwa in Form von Trackingdaten ein oder mehrerer and der Bildgebungseinheit 20 geeignet angebrachter Trackingsensoren oder Ergebnissen einer Auswertung von Bilddaten des Abbildungsbereichs AB. In einem weiteren optionalen Teilschritt S23 wird aus der Lageinformation der Lagezustand des Abbildungsbereichs AB berechnet (durch die entsprechend ausgebildete Verarbeitungseinheit 22). In einem weiteren optionalen Teilschritt S24 kann die Lageinformation und oder der Lagezustand mit dem Koordinatensystem des Untersuchungsobjekts 31 registriert werden.
  • In Schritt S30 erfolgt das Bestimmen des Bewegungszustands des medizinischen Objekts MD relativ zum Untersuchungsobjekt 31. Insbesondere kann dabei die momentane Position des medizinischen Objekts MD (des vordefinierten Abschnitts VD) ermittelt werden. Hierzu können in einem optionalen Teilschritt S31 eine Bewegungsinformation des medizinischen Objekts MD bereitgestellt werden, z.B. als Bewegungsparameter durch die Bewegungsvorrichtung CR oder in Form von Bilddaten des Abbildungsbereichs AB durch die Bildgebungseinheit 20. In einem weiteren optionalen Teilschritt S32 kann diese Bewegungsinformation von der Verarbeitungseinheit 22 empfangen werden. Alternativ kann die Bewegungsinformation in Teilschritt S31 von der Verarbeitungseinheit 22 selbst bereitgestellt werden, etwa in Form von Trackingdaten ein oder mehrerer an der Bewegungsvorrichtung CR und/der dem medizinischen Objekt MD geeignet angebrachter Trackingsensoren oder als Ergebnis einer Auswertung von Bilddaten des Abbildungsbereichs AB. In einem weiteren optionalen Teilschritt S33 wird aus der Bewegungsinformation der Bewegungszustand des medizinischen Objekts MD berechnet (durch die entsprechend ausgebildet Verarbeitungseinheit 22). In einem weiteren optionalen Teilschritt S34 kann die Bewegungsinformation und/oder der Bewegungszustand mit dem Koordinatensystem des Untersuchungsobjekts 31 und oder dem Lagezustand registriert werden.
  • In Schritt S40 wird eine Zielposition TP für das medizinische Objekt MD (den vorbestimmten Abschnitt VD) bezüglich des Untersuchungsobjekts 31 vorgegeben. Die Zielposition TP kann eine vorgegebene Positionsbeziehung zum Abbildungsbereich AB aufweisen. Dann ist die Zielposition TP durch den Lagezustand des Abbildungsbereichs AB implizit vorgegeben. Alternativ kann die definierte Position in einem optionalen Teilschritt S41 durch eine Nutzereingabe in dem Abbildungsbereich AB dynamisch festgelegt werden. Die Vorgabe der relativ zum Abbildungsbereich definierten Zielposition TP kann aktivierbar und/oder deaktivierbar sein.
  • In Schritt S50 werden ein oder mehrere Steuersignale für die Bewegungsvorrichtung bestimmt, die geeignet sind, das medizinische Objekt MD (den vordefinierten Abschnitt VD) basierend auf dessen Bewegungszustand zur Zielposition TP zu bewegen. Insbesondere können die ein oder mehreren Steuersignale geeignet sein, das medizinische Objekt MD (den vordefinierten Abschnitt VD) von der momentanen Position zur Zielposition TP zu bewegen. In einem optionalen Teilschritt S51 kann eine Bewegungstrajektorie bestimmt werden, die geeignet ist, das medizinische Objekt MD (den vordefinierten Abschnitt VD) basierend auf dem Bewegungszustand von der momentanen Position zur Zielposition TP zu bewegen, auf Grundlage welcher Bewegungstrajektorie dann die ein oder mehreren Steuersignale bestimmt werden. In einem weiteren optionalen Teilschritt S52 können bei der Bestimmung der Bewegungstrajektorie Zusatzinformationen hinsichtlich des Untersuchungsobjekts 31 berücksichtigt werden. Solche Zusatzinformationen können beispielsweise als zweidimensionale und/oder dreidimensionale und/oder vierdimensionale Datensätze, insbesondere Bilddatensätze, vorliegen, die mit dem Abbildungsbereich AB registriert sind und in einem weiteren optionalen Teilschritt S53 bereitgestellt werden.
  • In Schritt S60 werden die ein oder mehreren Steuersignale der Bewegungsvorrichtung CR bereitgestellt. In einem optionalen Teilschritt S61 wird das medizinische Objekt MD durch die Bewegungsvorrichtung CR basierend (gemäß) den ein oder mehreren Steuersignalen (zur Zielposition TP) bewegt.
  • In einem optionalen Schritt S70 erfolgt eine Änderung der Lage des Abbildungsbereich AB und/oder der definierten Position durch einen Nutzer, woraufhin die Verarbeitung die Schritte S10 bis S60 (ggf. einschließlich ein oder mehrerer optionaler Teilschritte) wiederholt.
  • In einem optionalen Schritt S80 erfolgte eine Anpassung der Bildgebungseinheit 20 basierend auf dem Bewegungszustand (der momentanen Position) des medizinischen Objekts MD, um beispielsweise den Abbildungsbereich AB dem medizinischen Objekt nachzuführen und/oder die Bildgebung auf den Bewegungszustand (die momentane Position) zu optimieren. Schritt S80 kann insbesondere auf den in Schritt S10 aufgenommenen Bilddaten basieren.
  • Die in den beschriebenen Figuren enthaltenen schematischen Darstellungen bilden keinerlei Maßstab oder Größenverhältnis ab.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorhergehend detailliert beschriebenen Verfahren sowie bei den dargestellten Vorrichtungen lediglich um Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen. Weiterhin schließt die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht aus, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ und „Element“ nicht aus, dass die betreffenden Komponenten aus mehreren zusammenwirkenden Teil-Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.
  • Die folgenden Punkte sind ebenfalls Teil der Offenbarung:
    1. 1. Medizinisches Bildgebungssystem mit:
      • • einer medizinischen Bildgebungseinheit (20) zur Abbildung eines Abbildungsbereichs (AB) innerhalb eines Untersuchungsobjekts (31), wobei die Bildgebungseinheit (20) derart ausgebildet ist, dass die Lage des Abbildungsbereichs (AB) in Bezug auf das Untersuchungsobjekt (31) veränderbar ist; und
      • • einer Verarbeitungseinheit (22), die eine Datenschnittstelle (35) zu einer Bewegungsvorrichtung (CR) zur robotischen Positionierung eines medizinischen Objekts (MD) innerhalb des Untersuchungsobjekts (31) aufweist;
      wobei:
      • • die Verarbeitungseinheit (22) derart ausgebildet ist, dass sie eine momentane Position des medizinischen Objekts (MD) ermittelt;
      • • die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie eine Zielposition (TP) für das medizinische Objekt (MD) vorgibt;
      • • die Verarbeitungseinheit (22) ferner derart ausgebildet ist, ein oder mehrere Steuersignale zu bestimmen, die geeignet sind, eine Bewegung des medizinischen Objekts (MD) durch die Bewegungsvorrichtung (CR) von der momentanen Position zur Zielposition (TP) zu veranlassen;
      • • die Verarbeitungseinheit (22) ferner dazu ausgebildet ist, die ein oder mehreren Steuersignale über die Datenschnittstelle (35) der Bewegungsvorrichtung (CR) bereitzustellen;
      • • die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie die Zielposition (TP) der Lage des Abbildungsbereichs (AB) nachführt.
    2. 2. Bildgebungssystem nach 1, bei dem die Verarbeitungseinheit (22) derart ausgebildet ist, dass das Nachführen der Zielposition (TP), insbesondere durch eine Nutzereingabe, aktivierbar und/oder deaktivierbar ist.
    3. 3. Bildgebungssystem nach einem der vorhergehenden Punkte, bei dem die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie:
      • einen Lagezustand des Abbildungsbereichs (AB) bezüglich des Untersuchungsobjekts (31) ermittelt; und
      • die Zielposition (TP) basierend auf dem Lagezustand nachführt.
    4. 4. Bildgebungssystem nach einem der vorhergehenden Punkte, bei dem die Bildgebungseinheit (20) ferner derart ausgebildet ist, dass die Lage des Abbildungsbereichs (AB) durch einen Nutzer manuell, insbesondere händisch, eingestellt werden kann.
    5. 5. Bildgebungssystem nach einem der vorhergehenden Punkte, bei dem die Bildgebungseinheit (20) ferner eine Positionierungsvorrichtung (21) aufweist, die derart ausgebildet ist, dass sie die Lage des Abbildungsbereichs (AB) bezüglich des Untersuchungsobjekts (31) robotisch einstellen kann.
    6. 6. Interventionssystem (1) mit:
      • • einer Bewegungsvorrichtung (CR) zur robotischen Positionierung eines medizinischen Objekts (MD) innerhalb eines Untersuchungsobjekt (31) und relativ dazu;
      • • einer medizinischen Bildgebungseinheit (20) aufweisend eine Ultraschalleinheit (US) zur Abbildung eines Abbildungsbereichs (AB) innerhalb des Untersuchungsobjekts (31) mittels Sonographie;
      • • einer Positionierungsvorrichtung (21) zur robotischen Positionierung der Ultraschalleinheit (US) relativ zum Untersuchungsobjekt (31); und
      • • einer Verarbeitungseinheit (22);
      wobei:
      • • die Verarbeitungseinheit (22) derart ausgebildet ist, dass sie eine momentane Position des medizinischen Objekts (MD) ermittelt;
      • • die Verarbeitungseinheit (22) derart ausgebildet ist, dass sie basierend auf dem Bewegungszustand die Positionierungsvorrichtung (21) derart steuert, dass der vordefinierte Abschnitt (VD) des medizinischen Objekts (MD) im Abbildungsbereich (AB) liegt.
    7. 7. Interventionssystem nach 5 oder 6, bei dem die Positionierungsvorrichtung einen 6DOF oder 7DOF Roboter, insbesondere einen 7DOF-Leichtbauroboter aufweist.
    8. 8. Interventionssystem nach 6 oder 7, bei dem:
      • die Bewegungsvorrichtung (CR) dazu ausgebildet ist, der Verarbeitungseinheit (22) eine Bewegungsinformation bereitzustellen, aus welcher die momentane Position des medizinischen Objekts (MD) ableitbar ist; und
      • die Verarbeitungseinheit (22) dazu ausgebildet ist, die momentane Position des medizinischen Objekts (MD) basierend auf der Bewegungsinformation zu bestimmen;
      • wobei die Bewegungsinformation bevorzugt eine Information zu einer Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz des medizinischen Objekts (MD) aufweist.

Claims (18)

  1. Medizinisches Bildgebungssystem (1) mit: • einer medizinischen Bildgebungseinheit (20) zur Abbildung eines Abbildungsbereichs (AB) innerhalb eines Untersuchungsobjekts (31), wobei die Bildgebungseinheit (20) derart ausgebildet ist, dass die Lage des Abbildungsbereichs (AB) in Bezug auf das Untersuchungsobjekt (31) veränderbar ist; und • einer Verarbeitungseinheit (22), die eine Datenschnittstelle (35) zu einer Bewegungsvorrichtung (CR) zur robotischen Positionierung eines medizinischen Objekts (MD) innerhalb des Untersuchungsobjekts (31) aufweist; wobei: • die Verarbeitungseinheit (22) derart ausgebildet ist, dass sie eine momentane Position des medizinischen Objekts (MD) ermittelt; • die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie eine Zielposition (TP) für das medizinische Objekt (MD) vorgibt, welche Zielposition (TP) relativ zum Abbildungsbereich (AB) definiert ist; • die Verarbeitungseinheit (22) ferner derart ausgebildet ist, ein oder mehrere Steuersignale zu bestimmen, die geeignet sind, eine Bewegung des medizinischen Objekts (MD) durch die Bewegungsvorrichtung (CR) von der momentanen Position zur Zielposition (TP) zu veranlassen; und • die Verarbeitungseinheit (22) ferner dazu ausgebildet ist, die ein oder mehreren Steuersignale über die Datenschnittstelle (35) der Bewegungsvorrichtung (CR) bereitzustellen.
  2. Bildgebungssystem nach Anspruch 1, bei dem die Verarbeitungseinheit (22) derart ausgebildet ist, dass die Vorgabe der relativ zum Abbildungsbereich (AB) definierten Zielposition (TP), insbesondere durch eine Nutzereingabe, aktivierbar und/oder deaktivierbar ist.
  3. Bildgebungssystem nach einem der Ansprüche 1 oder 2, bei dem die Zielposition (TP) eine relativ zum Abbildungsbereich (AB) fest vorgegebene Position ist.
  4. Bildgebungssystem nach einem der Ansprüche 1 oder 2, ferner mit einer Nutzerschnittstelle (41, 42), die derart ausgebildet ist, dass ein Nutzer die Zielposition (TP) innerhalb des Abbildungsbereichs (AB) durch eine Nutzereingabe vorgeben kann.
  5. Bildgebungssystem nach einem der vorhergehenden Ansprüche, bei dem die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie: einen Lagezustand des Abbildungsbereichs (AB) bezüglich des Untersuchungsobjekts (31) ermittelt; und die ein oder mehreren Steuersignale basierend auf dem Lagezustand bestimmt.
  6. Bildgebungssystem nach Anspruch 5, bei dem die Bildgebungseinheit (20) derart ausgebildet ist, dass sie eine Lageinformation bereitstellt, welche Lageinformation insbesondere eine Information hinsichtlich einer Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz wenigstens einer bildgebenden Komponente (US) der Bildgebungseinheit (20) und/oder Bilddaten des Abbildungsbereichs (AB) aufweist; und die Verarbeitungseinheit (22) dazu ausgebildet ist, den Lagezustand auf Grundlage der Lageinformation zu ermitteln.
  7. Bildgebungssystem nach einem der vorhergehenden Ansprüche, bei dem die Verarbeitungseinheit (22) dazu ausgebildet ist: eine Information hinsichtlich des Untersuchungsobjekts (31) zu empfangen, welche Information eine Information bezüglich einer Gefäßstruktur des Untersuchungsobjekts (31) und/oder einer Materialeigenschaft des Untersuchungsobjekts (31) und/oder eine Zustandsinformation des Untersuchungsobjekts (31) aufweist; und die ein oder mehreren Steuersignale basierend auf der Information hinsichtlich des Untersuchungsobjekts (31) zu bestimmen.
  8. Bildgebungssystem nach einem der vorhergehenden Ansprüche, bei dem die Verarbeitungseinheit (22) dazu ausgebildet ist, die ein oder mehreren Steuersignale bei einer Änderung des Abbildungsbereichs (AB) oder/oder einer Änderung der Zielposition (TP) wiederholt zu bestimmen.
  9. Bildgebungssystem nach einem der vorhergehenden Ansprüche, bei dem die Bildgebungseinheit (20) ferner derart ausgebildet ist, dass die Lage des Abbildungsbereichs (AB) durch einen Nutzer manuell, insbesondere händisch, eingestellt werden kann.
  10. Bildgebungssystem nach einem der vorhergehenden Ansprüche, bei dem die Bildgebungseinheit (20) ferner eine Positionierungsvorrichtung (21) aufweist, die derart ausgebildet ist, dass sie die Lage des Abbildungsbereichs (AB) bezüglich des Untersuchungsobjekts (31) robotisch einstellen kann.
  11. Bildgebungssystem nach einem der vorhergehenden Ansprüche, bei dem die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie basierend auf einer Bewegungsinformation des medizinischen Objekts (MD) die Bildgebungseinheit (20) steuert, und zwar insbesondere dahingehend, dass: eine Optimierung der Abbildung des Abbildungsbereich (AB) durch Anpassen ein oder mehrerer Bildgebungsparameter der Bildgebungseinheit (20) vorgenommen wird, und/oder die Lage des Abbildungsbereichs (AB) derart eingestellt wird, dass das medizinische Objekt (MD) im Abbildungsbereich (AB) liegt.
  12. Bildgebungssystem nach einem der vorhergehenden Ansprüche bei dem die Bildgebungseinheit (20) ein Ultraschallbildgebungsgerät mit einer Ultraschalleinheit (US) als bildgebende Komponente aufweist, welche Ultraschalleinheit (US) als Ultraschallkopf zur sonographischen Untersuchung des Untersuchungsobjekts (31) ausgebildet ist.
  13. Bildgebungssystem nach einem der vorhergehenden Ansprüche, ferner mit einer Darstellungseinheit (41), die derart ausgebildet ist, dass sie anzeigt: eine erste Darstellung (LAV) des Abbildungsbereichs (AB); und eine der ersten Darstellung (LAV) überlagerte Markierung (M), welche Markierung (M) die Zielposition (TP) in der ersten Darstellung (LAV) angibt.
  14. Bildgebungssystem (1) nach einem der vorhergehenden Ansprüche, bei dem: die Verarbeitungseinheit (22) ferner derart ausgebildet ist, dass sie bei Unterbrechung der Datenverbindung über die Datenschnittstelle (35) eine Warnmeldung an einen Nutzer ausgibt; und die Datenschnittstelle (35) insbesondere als drahtlose Datenschnittstelle ausgebildet ist.
  15. Interventionssystem zur Durchführung einer interventionellen, insbesondere medizinischen, Prozedur mit einem Bildgebungssystem nach einem der vorhergehenden Ansprüche; und der Bewegungsvorrichtung (CR) zur robotischen Positionierung des medizinischen Objekts (MD) innerhalb des Untersuchungsobjekts (31) und relativ zu diesem.
  16. Interventionssystem nach Anspruch 15, bei dem: die Bewegungsvorrichtung (CR) derart ausgebildet ist, eine Bewegungsinformation zu einem momentanen Bewegungszustand des medizinischen Objekts bereitzustellen, welche Bewegungsinformation insbesondere eine Information zu einer Geschwindigkeit und/oder Ausrichtung und/oder Relativposition und/oder Bewegungsdistanz des medizinischen Objekts (MD) aufweist; die Verarbeitungseinheit (22) dazu ausgebildet ist, die Bewegungsinformation über die Datenschnittstelle (35) zu empfangen; und die Verarbeitungseinheit (22) ferner dazu ausgebildet ist, die momentane Position des medizinischen Objekts (MD) basierend auf der Bewegungsinformation zu bestimmen.
  17. Verfahren zur Steuerung eines Bildgebungssystems bzw. eines Interventionssystem nach einem der vorhergehenden Ansprüche, wobei das Verfahren die folgenden Schritte aufweist: Aufnehmen (S10) von Bilddaten eines Abbildungsbereichs (AB) innerhalb des Untersuchungsobjekts (31) mittels der Bildgebungseinheit (20); Ermitteln (S30) einer momentanen Position des medizinischen Objekts (MD); Vorgeben (S40) einer Zielposition (TP) für das medizinische Objekt (MD), welche Zielposition relativ zum Abbildungsbereich (AB) definiert ist; Bestimmen (S50) von ein oder mehreren Steuersignalen für die Bewegungsvorrichtung (CR), welche ein oder mehreren Steuersignale geeignet sind, durch die Bewegungsvorrichtung (CR) eine Bewegung des medizinischen Objekts (MD) von der momentanen Position zur Zielposition (TP) zu veranlassen; und Bereitstellen (S60) der ein oder mehreren Steuersignale an die Bewegungsvorrichtung (CR) über die Datenschnittstelle (35) .
  18. Computerprogrammprodukt, welches ein Programm umfasst und direkt in einen Speicher einer programmierbaren Recheneinheit einer Verarbeitungseinheit (22) ladbar ist, mit Programmmitteln, um ein Verfahren nach Anspruch 17 auszuführen, wenn das Programm in der Recheneinheit der Verarbeitungseinheit (22) ausgeführt wird.
DE102020204985.8A 2020-04-21 2020-04-21 Steuerung eines robotisch bewegten medizinischen Objekts Pending DE102020204985A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020204985.8A DE102020204985A1 (de) 2020-04-21 2020-04-21 Steuerung eines robotisch bewegten medizinischen Objekts
US17/231,134 US20210322105A1 (en) 2020-04-21 2021-04-15 Control of a robotically moved object
CN202110433186.XA CN113520425A (zh) 2020-04-21 2021-04-21 医学成像系统、介入系统及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020204985.8A DE102020204985A1 (de) 2020-04-21 2020-04-21 Steuerung eines robotisch bewegten medizinischen Objekts

Publications (1)

Publication Number Publication Date
DE102020204985A1 true DE102020204985A1 (de) 2021-10-21

Family

ID=77919447

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020204985.8A Pending DE102020204985A1 (de) 2020-04-21 2020-04-21 Steuerung eines robotisch bewegten medizinischen Objekts

Country Status (3)

Country Link
US (1) US20210322105A1 (de)
CN (1) CN113520425A (de)
DE (1) DE102020204985A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214399A1 (de) 2021-12-15 2023-06-15 Siemens Healthcare Gmbh Bereitstellen einer Vorgabe
DE102022207155A1 (de) 2022-07-13 2024-01-18 Siemens Healthcare Gmbh Verfahren und System zur Überwachung einer Ausrichtung eines medizinischen Objekts

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114041828B (zh) * 2022-01-13 2022-04-29 深圳瀚维智能医疗科技有限公司 超声扫查控制方法、机器人及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
WO2004006795A1 (en) 2002-07-16 2004-01-22 Magnetecs, Inc Apparatus for catheter guidance control and imaging
DE102005028744A1 (de) 2005-06-21 2006-12-28 Siemens Ag Verfahren zum Führen eines chirurgischen Instruments
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005044338A1 (de) * 2005-09-16 2007-03-22 Siemens Ag Verfahren und Anordnung zur Lokalisation eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, medizinischen Instruments
DE102007045075B4 (de) * 2007-09-21 2010-05-12 Siemens Ag Interventionelles medizinisches Diagnose- und/oder Therapiesystem
WO2011109282A1 (en) * 2010-03-02 2011-09-09 Corindus Inc. Robotic catheter system with variable speed control
WO2012129374A1 (en) * 2011-03-22 2012-09-27 Corindus, Inc. Robotic catheter system including imaging system control
DE102012217634A1 (de) * 2012-09-27 2014-03-27 Siemens Aktiengesellschaft Patientenlagerungsvorrichtung, medizinisches Bildgebungssystem und Verfahren zur medizinischen Bildgebung
CN105246429B (zh) * 2013-05-31 2018-06-26 皇家飞利浦有限公司 用于在介入流程期间辅助用户的辅助装置
WO2015075047A1 (en) * 2013-11-20 2015-05-28 Koninklijke Philips N.V. Medical image viewing device for navigation in x-ray imaging, medical imaging system and method for providing improved x-ray image navigation information
DE102014226240A1 (de) * 2014-12-17 2016-06-23 Kuka Roboter Gmbh System zur roboterunterstützten medizinischen Behandlung
US20160354057A1 (en) * 2015-06-08 2016-12-08 General Electric Company Ultrasound imaging system and ultrasound-based method for guiding a catheter
EP4233767A3 (de) * 2015-06-30 2023-09-06 Corindus, Inc. System zur bestimmung der position eines führungskatheterträgers
JP6636639B2 (ja) * 2015-12-22 2020-01-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波に基づく追跡
US11497565B2 (en) * 2016-06-07 2022-11-15 Corindus, Inc. Device drive for catheter procedure system
DE102020204574A1 (de) * 2020-04-09 2021-10-14 Siemens Healthcare Gmbh Bildgebung eines robotisch bewegten medizinischen Objekts
DE102020210849A1 (de) * 2020-08-27 2022-03-03 Siemens Healthcare Gmbh Positionsbestimmungsverfahren, Verfahren zur Ansteuerung eines Röntgengeräts und medizinisches System
DE102021201729A1 (de) * 2021-02-24 2022-08-25 Siemens Healthcare Gmbh Vorrichtung zum Bewegen eines medizinischen Objekts und Verfahren zum Bereitstellen einer Steuerungsvorgabe

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
WO2004006795A1 (en) 2002-07-16 2004-01-22 Magnetecs, Inc Apparatus for catheter guidance control and imaging
DE102005028744A1 (de) 2005-06-21 2006-12-28 Siemens Ag Verfahren zum Führen eines chirurgischen Instruments
DE102013109677A1 (de) 2013-09-05 2015-03-05 MAQUET GmbH Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021214399A1 (de) 2021-12-15 2023-06-15 Siemens Healthcare Gmbh Bereitstellen einer Vorgabe
DE102022207155A1 (de) 2022-07-13 2024-01-18 Siemens Healthcare Gmbh Verfahren und System zur Überwachung einer Ausrichtung eines medizinischen Objekts

Also Published As

Publication number Publication date
CN113520425A (zh) 2021-10-22
US20210322105A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
DE69829161T2 (de) Stereotaktische Zieleinrichtung
DE102007045075B4 (de) Interventionelles medizinisches Diagnose- und/oder Therapiesystem
DE102011083876B4 (de) Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung und Röntgensystem
EP2449997B1 (de) Medizinischer Arbeitsplatz
DE102007059599B4 (de) Vorrichtung für eine medizinische Intervention und Betriebsverfahren für eine Vorrichtung für eine medizinische Intervention
DE102020204985A1 (de) Steuerung eines robotisch bewegten medizinischen Objekts
DE69826421T2 (de) Bildgesteuerte Eingriffsverfahren
EP3232976A1 (de) System zur roboterunterstützten medizinischen behandlung
EP3271118B1 (de) Robotersystem und verfahren zum betrieb eines teleoperativen prozesses
DE102006001884A1 (de) Verfahren zur bildlichen Unterstützung einer Führung eines in einen Hohlraum eines Untersuchungsobjekts mindestens teilweise eingeführten medizinischen Instruments
DE10210647A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE102006008042A1 (de) Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung
WO1994003100A1 (de) Verfahren zur darstellung des inneren von körpern
EP1312317B1 (de) Schwenkbarer Arm mit passiven Aktuatoren
DE102008017111A1 (de) System und Verfahren zur Navigation eines Ojektes in einem abgebildeten Subjekt
DE102014203097A1 (de) Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung
DE19807884C2 (de) Verfahren zur Kalibrierung einer Aufnahmevorrichtung zur Bestimmung von räumlichen Koordinaten anatomischer Zielobjekte und Vorrichtung zur Durchführung des Verfahrens
DE102013213727A1 (de) Interventionelles Bildgebungssystem
WO2019149400A1 (de) Verfahren zur positionsplanung eines aufnahmesystems eines medizinischen bildgebenden geräts und medizinisches bildgebendes gerät
EP2830526A1 (de) Medizinisches navigationssystem mit drahtlos verbundenem, berührungsempfindlichem bildschirm
DE10160530A1 (de) Verfahren und Anlage zur Magnetresonanz-Bildgebung
DE102008032508B4 (de) Medizinische Untersuchungs- und Behandlungseinrichtung zur Planung und Durchführung einer Punktion eines Patienten sowie zugehöriges Verfahren
DE102020204574A1 (de) Bildgebung eines robotisch bewegten medizinischen Objekts
EP4213755B1 (de) Chirurgisches assistenzsystem
DE102012224057B4 (de) Verfahren und Vorrichtung zur Bildunterstützung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE