DE102021202978A1 - Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt - Google Patents

Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt Download PDF

Info

Publication number
DE102021202978A1
DE102021202978A1 DE102021202978.7A DE102021202978A DE102021202978A1 DE 102021202978 A1 DE102021202978 A1 DE 102021202978A1 DE 102021202978 A DE102021202978 A DE 102021202978A DE 102021202978 A1 DE102021202978 A1 DE 102021202978A1
Authority
DE
Germany
Prior art keywords
subject
area
marking
camera
marking object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021202978.7A
Other languages
English (en)
Inventor
Johann Sukkau
Helmut Wrobel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102021202978.7A priority Critical patent/DE102021202978A1/de
Priority to US17/704,839 priority patent/US20220304634A1/en
Publication of DE102021202978A1 publication Critical patent/DE102021202978A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0492Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0407Supports, e.g. tables or beds, for the body or parts of the body
    • A61B6/045Supports, e.g. tables or beds, for the body or parts of the body with heating or cooling means

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Die Erfindung betrifft Verfahren und ein Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt (3), insbesondere einem Patienten, auf einer bewegbaren Liege eines medizinischen Bildgebungssystems (1), umfassend die Schritte: a) Manuelles Angeben des Bereichs durch Positionieren eines vorbestimmten Markierobjekts (4) in Relation zu dem Subjekt (3); b) Erfassen der Position des Markierobjekts (4) durch eine Erfassungsvorrichtung (5); c)Projektion und/oder Anzeige einer Feedback-Markierung (6) durch eine Projektionsvorrichtung (7) an der gegenwärtig erfassten Position an dem Subjekt (3) und optional Anpassen der Position des Markierobjekts (4) und der gegenwärtig erfassten Position; d) Berechnen einer Messposition der Liege (2) auf Grundlage der erfassten Position mittels einer Rechnereinheit (8), wobei in der Messposition der zu untersuchende Bereich in einem Erfassungsbereich des Bildgebungssystems (1) angeordnet ist; e) Automatisches Fahren der Liege (2) in die Messposition mit einem Motor (10).

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt, ein Verfahren zur Bestimmung eines Field-of-Views für eine Messung, ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerkes zur Bestimmung eines Field-of-Views und ein Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt.
  • Eine Untersuchung an einem medizinischen Bildgebungssystem, beispielsweise im Rahmen der Magnetresonanztomographie (MRT), der Computertomographie (CT) oder der MRT-Positronen-Emissions-Tomographie (MRT-PET), erfordert in der Regel, dass ein medizinisch-technischer Assistent/in (MTA) den Patienten auf der Patientenliege positioniert und dann dafür sorgt, dass die Liege korrekt im Bildgebungssystem positioniert wird. Beispielsweise kann ein Laserstrahl an einer feststehenden Position auf den Patienten gerichtet werden, und der MTA fährt die Liege manuell an eine Position, in der der Laserstrahl auf die gewünschte Stelle auf dem Patienten zeigt. Ist die gewünschte Stelle am Patienten festgelegt, fährt die Liege automatisch mit dieser Stelle in das Isozentrum des Systems. Außerdem ist es bekannt, eine Liegenposition bzw. eine Stelle der Liege per numerischer Eingabe an das System zu übermitteln. Das Isozentrum ist insbesondere der Bereich in dem Bildgebungssystem, der für eine Untersuchung am besten geeignet ist, beispielsweise der Bereich, an dem das Magnetfeld eines MRT ausreichend homogen für die Bildgebung ist.
  • Die bisherigen Ansätze benötigen jedoch eine gewisse Zeit, sind oftmals nicht intuitiv anwendbar und/oder teilweise recht umständlich. Auch bestehen mitunter recht hohe Anforderungen an die Präzision der Positionierung, die von im Stand der Technik bekannten Vorgehensweisen nicht immer vollends erfüllt werden können.
  • Es ist daher eine Aufgabe der Erfindung ein Verfahren und ein System bereitzustellen, womit die Positionierung einer bewegbaren Liege mit einem darauf liegenden Subjekt möglichst schnell, einfach und präzise an ein Bildgebungssystem übermittelt werden kann.
  • Diese Aufgabe wird gelöst durch ein Verfahren gemäß Anspruch 1, ein Verfahren gemäß Anspruch 19, ein Verfahren gemäß Anspruch 20 und ein Positionierungssystem gemäß Anspruch 21. Weitere Vorteile und Merkmale der Erfindung ergeben sich aus den Unteransprüchen sowie der Beschreibung und den beigefügten Figuren.
  • Gemäß einem ersten Aspekt der Erfindung ist ein Verfahren zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt, insbesondere einem Patienten, auf einer bewegbaren Liege eines medizinischen Bildgebungssystems vorgesehen. Das Verfahren umfasst die Schritte: a) Manuelles Angeben des Bereichs durch Positionieren eines vorbestimmten Markierobjekts in Relation zu dem Subjekt; b) Erfassen der Position des Markierobjekts durch eine Erfassungsvorrichtung; c) Projektion und/oder Anzeige einer Feedback-Markierung durch eine Projektionsvorrichtung an der gegenwärtig erfassten Position an dem Subjekt und optional Anpassen der Position des Markierobjekts und der gegenwärtig erfassten Position; d) Berechnen einer Messposition der Liege auf Grundlage der erfassten Position mittels einer Rechnereinheit, wobei in der Messposition der zu untersuchende Bereich in einem Erfassungsbereich des Bildgebungssystems angeordnet ist; e) Automatisches Fahren der Liege in die Messposition mit einem Motor. Die Erfindung kann es vorteilhafterweise ermöglichen, dass ein zu untersuchender Bereich intuitiv und mit verhältnismäßig geringem Aufwand durch den Nutzer angegeben werden kann. Dabei kann insbesondere eine besonders schnelle und gleichzeitig genaue Positionierungstechnik ermöglicht werden. Durch die Feedback-Markierung kann weiterhin ein Rückmeldungsmechanismus ermöglicht werden, der einerseits eine zuverlässigere Eingabe ermöglichen kann und andererseits das Vertrauen des Nutzers in dieses Verfahren steigern kann. Insbesondere kann ein medizinischer Workflow dadurch besonders effizient und schnell sein.
  • Der zu untersuchende Bereich kann insbesondere eine Stelle an dem Körper des Patienten sein. Beispielsweise kann der zu untersuchende Bereich eine Position in Längsrichtung der Liege sein. Damit kann der zu untersuchende Bereich durch eine Position auf einer eindimensionalen Skala definiert sein. Es ist aber auch denkbar, dass der zu untersuchende Bereich in einer zweidimensionalen Ebene, insbesondere einer Ebene parallel zu der Liege, definiert wird oder dass er ein dreidimensionaler Bereich ist. Der untersuchende Bereich wird in vorteilhaften Ausführungsformen durch genau eine Position bzw. genau einen Punkt bestimmt, kann aber auch eine einzwei- oder dreidimensionale Ausdehnung haben. Der zu untersuchende Bereich kann eine Stelle an der Oberfläche des Subjekts, insbesondere an der Körperoberfläche des Patienten, bezeichnen. Es ist alternativ aber auch denkbar, dass, beispielsweise mittels Richtungsgesten bestimmbar, ein Bereich, der sich innerhalb des Subjekts, insbesondere innerhalb des Patientenkörpers, befindet, bezeichnet wird. Der zu untersuchende Bereich kann beispielsweise einem Körperteil und/oder einem Organ zugeordnet sein bzw. den Körperteil/das Organ umfassen. Während des Verfahrens ist es vorzugsweise vorgesehen, dass sich das Subjekt liegend auf der Liege befindet. Vorzugsweise bewegt sich das Subjekt dabei so wenig wie möglich in Relation zu der Liege. Die Liege kann vorzugsweise zumindest in ihrer Längsrichtung bewegbar sein. Insbesondere kann die Liege in einen Untersuchungsbereich bzw. einen Scanbereich des Bildgebungssystems hineinbewegbar und herausbewegbar sein. Zusätzlich ist es denkbar, dass die Liege auch in einer Richtung senkrecht zu ihrer Längsrichtung bewegbar sein kann. In diesem Zusammenhang und auch im Folgenden kann die Längsrichtung der Liege als z-Richtung, eine Querrichtung der Liege, welche Senkrecht zu der z-Richtung und im Wesentlichen parallel zu der Liegefläche ist, als x-Richtung und eine zu der Liegefläche senkrechte Richtung als y-Richtung bezeichnet werden. Das medizinische Bildgebungssystem kann grundsätzlich jedes Bildgebungssystem sein, welches eine bewegbare Liege und einen, insbesondere stationären, Untersuchungsbereich umfasst. Alternativ kann auch die Liege stationär sein und das Bildgebungssystem in z-Richtung verfahrbar. Beispielsweise kann das Bildgebungssystem ein Magnetresonanztomographiesystem (MRT-System), ein Computertomographie-System (CT-System) oder MRT-Positronen-Emissions-Tomographie-System (MRT-PET-System) sein. Die Rechnereinheit kann Teil eines Steuerungsrechners des Bildgebungssystems sein, oder ein separater Rechner.
  • Unter einem manuellen Eingeben ist insbesondere ein Eingeben durch einen Nutzer bzw. eine Bedienperson, beispielsweise einen medizinisch-technischen Assistenten, zu verstehen. Das Markierobjekt kann dabei grundsätzlich irgendein durch die Erfassungsvorrichtung erkennbares Objekt sein. Insbesondere kann das Markierobjekt ein Körperteil des Nutzers oder ein von dem Nutzer greifbarer und bewegbarer Gegenstand sein. Vorbestimmt bedeutet in diesem Zusammenhang vorzugsweise, dass das Markierobjekt bzw. seine Form oder sein Aussehen in der Erfassungsvorrichtung oder in einer angeschlossenen Auswertevorrichtung gespeichert ist, sodass insbesondere ein Bildabgleich zwischen dem Markierobjekt und einem gespeicherten Muster erfolgen kann. Der Nutzer kann sich vorzugsweise an der Position des Subjekts und des zu untersuchenden Bereichs an dem Subjekt orientieren und somit das Markierobjekt direkt in Relation zu dem Subjekt ausrichten. Das kann insbesondere eine unmittelbare und intuitive Angabe des Bereichs ermöglichen. Das Erfassen der Position kann insbesondere das Erfassen eines vorbestimmten Abschnitts des Markierobjekts bedeuten. Beispielsweise kann die Spitze eines Stabes oder die ausgestreckte Fingerspitze eines Nutzers erfasst werden. Unter der Position kann insbesondere eine Raumkoordinate zu verstehen sein. Alternativ oder zusätzlich kann aber auch eine räumliche Orientierung des Markierobjekts, z.B. eine Drehrichtung, unter den Begriff Position fallen.
  • Das Markierobjekt kann hinsichtlich der Erfassung der Position passiv, aktiv oder autark sein. Die Erfassungsvorrichtung, welche die Position des Markierobjekts erfasst, kann an dem Markierobjekt selbst angeordnet sein. Beispielsweise können an dem Markierobjekt ein Positionssensor und eine Sendevorrichtung angeordnet sein (autarke Erfassung). Alternativ kann die Erfassungsvorrichtung auch abseits des Markierobjekts angeordnet sein, beispielsweise in Form einer Kamera, welche das Markierobjekt erfassen kann und einer Rechnereinheit, welche aus dem Kamerabild die Position des Markierobjekts bestimmen kann (passiv). Gemäß einer weiteren Alternative kann die Erfassungsvorrichtung sowohl teilweise an dem Markierobjekt als auch teilweise abseits des Markierobjekts angeordnet sein, beispielsweise in Form eines Infrarotsenders und - empfängers abseits des Markierobjekts sowie eines Retroreflektors an dem Markierobjekt. Grundsätzlich ist auch die Kombination mehrerer (auch unterschiedlicher) Erfassungsvorrichtungen denkbar. Dies kann es z.B. ermöglichen eine größere Präzision und/oder eine größere Zuverlässigkeit zu erreichen.
  • Die Projektion bzw. Anzeige einer Feedback-Markierung kann es insbesondere dem Nutzer ermöglichen, sofort zu erkennen, ob die erfasste Position tatsächlich dem von dem Nutzer angedachten Bereich entspricht. In diesem Zusammenhang kann „an der gegenwärtig erfassten Position“ insbesondere bedeuten, dass die Feedback-Markierung an eine sich ändernde Position des Markierobjekts sofort, bzw. so schnell wie möglich, angepasst wird. Beispielsweise kann es vorgesehen sein, dass der Nutzer ausgehend von der angezeigten Feedback-Markierung die Position des Markierobjekts so lange anpasst, bis die Feedback-Markierung so präzise wie möglich bzw. wie nötig den zu untersuchenden Bereich markiert. Die Feedback-Markierung kann vorzugsweise eine projizierte geometrische Form oder ein Muster, die/das zur Anzeige einer Position oder eines Bereichs geeignet ist, sein. Beispielsweise kann die Feedback-Markierung ein projiziertes Kreuz, ein projizierter Punkt, ein 3D-Kasten, oder eine entsprechend gestaltete Form sein. Das System ist dazu konfiguriert, mittels einer Rechnereinheit eine Messposition auszurechen. Die Messposition kann vorzugsweise eine Position der Liege sein, in der sich der zu untersuchende Bereich insbesondere in einem Erfassungsbereich befindet bzw. befinden würde. Beispielsweise kann die Messposition über die z-Koordinate der Liege definiert sein. Zusätzlich kann die Messposition optional die y-Koordinate und/oder die x-Koordinate umfassen. Der Erfassungsbereich kann vorzugsweise derjenige Bereich sein, in dem das Bildgebungssystem, insbesondere eine bildgebende Vorrichtung bzw. Scannereinheit des Bildgebungssystems, messen kann bzw. besonders gut messen kann. Beispielsweise kann der Erfassungsbereich dem Isozentrum des Bildgebungssystems entsprechen, in dem Isozentrum liegen oder um das Isozentrum herum angeordnet sein. Beispielsweise kann das Bildgebungssystem dazu konfiguriert sein, die aktuelle Position der Liege automatisch zu erfassen und durch Abgleich mit der erfassten Position des Markierobjekts zu ermitteln, wie die Liege bewegt werden muss, um den zu untersuchenden Bereich in den Erfassungsbereich zu bringen. Die dafür nötige Position der Liege kann insbesondere der Messposition entsprechen. Das System kann dann insbesondere dazu konfiguriert sein, die Liege automatisch mittels eines Motors in die Messposition zu bewegen. Der Motor kann beispielsweise durch die Rechnereinheit oder durch eine weitere Rechnereinheit des Bildgebungssystems gesteuert werden. Vorzugsweise handelt es sich bei dem Motor um einen Motor, der für die Operation in einem Magnetfeld ausgelegt ist. Alternativ oder zusätzlich ist es denkbar, dass der Motor extern, insbesondere außerhalb eines Messbereichs bzw. des Erfassungsbereichs, angeordnet ist. Dadurch kann ein Wechselwirken mit dem Magnetfeld des Bildgebungssystems verhindert oder verringert werden.
  • Gemäß einer Ausführungsform kann die Feedback-Markierung mit einer über der Liege angeordneten Lichtquelle, insbesondere einem Laser, erzeugt werden, wobei der von der Lichtquelle, insbesondere dem Laser, erzeugte Lichtstrahl, insbesondere Laserstrahl, an der erfassten Position zumindest im Wesentlichen vertikal auf das Objekt auftrifft. Dies kann beispielsweise dadurch erreicht werden, dass die Lichtquelle, insbesondere der Laser, mittels einer Schiene an der Decke des Behandlungsraums oder an einer anderen Befestigungsmöglichkeit über der Liege beweglich angeordnet ist. Vorzugsweise kann die Schiene entlang der Längsrichtung der Liege bzw. entlang der z-Achse verlaufen. Insbesondere kann der Laser mittels eines Motors automatisch entlang der Schiene parallel zu der Längsrichtung der Liege bewegbar sein. Durch ein vertikales Auftreffen kann ein Paralaxen-Fehler der Feedback-Markierung verhindert oder verringert werden. Ein Paralaxen-Fehler könnte die Feedback-Markierung verzerrt bzw. schief gekrümmt erscheinen lassen. Des Weiteren könnte, insbesondere bei Nichtberücksichtigung der Höhe des Subjekts, die Feedback-Markierung an der falschen Position, insbesondere z-Position, erscheinen. Im Wesentlichen vertikal bedeutet dabei, dass kleinere Abweichungen, d.h. eine leichte Schrägstellung, z.B. ±10°, vorzugsweise ±5°, stärker bevorzugt ±1°, noch im Rahmen dieser Ausführungsform ggf. akzeptabel sein können. Insbesondere kann es beispielsweise vorgesehen sein, dass die Richtung des auftreffenden Lichtstrahls, insbesondere Laserstrahls, im Wesentlichen keine z-Komponenten aufweist, dafür aber eine geringe x-Komponente. Das heißt, es kann vorgesehen sein, dass der Lichtstrahl, insbesondere Laserstrahl, mit Bezug auf die Längsrichtung der Liege im Wesentlichen senkrecht auftrifft, mit Bezug zu der Querrichtung der Liege aber eine der Breite der Liege und der Höhe der angebrachten Lichtquelle, insbesondere des angebrachten Lasers, entsprechende Ablenkung aufweist.
  • Gemäß einer Ausführungsform kann es vorgesehen sein, dass die Feedback-Markierung mit einer über der Liege angeordneten Lichtquelle, insbesondere einem Laser, erzeugt wird, wobei der Lichtstrahl, insbesondere Laserstrahl, mit Spiegeln derart umgeleitet wird, dass der Lichtstrahl, insbesondere Laserstrahl, an der erfassten Position zumindest im Wesentlichen vertikal auf das Objekt auftrifft. Dabei kann die Lichtquelle, insbesondere der Laser, in z-Richtung an einer fixen Position, vorzugsweise zentral, über der Liege angeordnet sein. Durch die Umleitung mit Spiegeln kann ein im Wesentlichen vertikales Auftreffen in der gesamten Längserstreckung der Liege ermöglicht werden, ohne dass die Lichtquelle, insbesondere der Laser, selbst in z-Richtung bewegt werden muss.
  • Gemäß einer Ausführungsform kann es vorgesehen sein, dass die Lichtquelle, insbesondere der Laser, einen Lichtstrahl, insbesondere Laserstrahl, mit einer in einer horizontalen Ebene liegenden Strahlrichtung erzeugt, wobei der erzeugte Lichtstrahl, insbesondere Laserstrahl, auf einen Parabolspiegel, insbesondere einen flachen Parabolspiegel, trifft, wobei der Brennpunkt des Parabolspiegels mit der Position der Lichtquelle, insbesondere des Lasers, übereinstimmt, sodass der Lichtstrahl, insbesondere Laserstrahl, in der horizontalen Ebene und senkrecht zu der Längsrichtung der Liege ein erstes Mal reflektiert wird, wobei der Lichtstrahl, insbesondere Laserstrahl, durch einen in der horizontalen Ebene vor dem Parabolspiegel angeordneten Flachspiegel derart ein zweites Mal reflektiert wird, dass er senkrecht in Richtung der Liege abgelenkt wird. Eine horizontale Ebene ist insbesondere eine Ebene, die sich in (x,z)-Richtung erstreckt bzw. die im Wesentlichen parallel zu der Auflagefläche der Liege verläuft. Durch die Platzierung der Lichtquelle bzw. des Lasers im Brennpunkt des Parabolspiegels können alle von der Lichtquelle bzw. dem Laser ausgehenden Lichtstrahlen bzw. Laserstrahlen parallel zu der Mittelachse des Parabolspiegels reflektiert werden. Mit anderen Worten kann sichergestellt werden, dass alle vom Parabolspiegel reflektierten Licht- bzw. Laserstrahlen im Wesentlichen parallel zu der x-Achse und im Wesentlichen senkrecht zu der y-Achse und der z-Achse verlaufen. Der Parabolspiegel kann insbesondere über eine Parabelformel mit x = a × z 2
    Figure DE102021202978A1_0001
    und der Brennweite ƒ = 1 4 × a
    Figure DE102021202978A1_0002
    definiert werden. Beispielsweise kann der Parameter α einen Wert von 15cm-1 bis 35cm-1, bevorzugt, 20cm-1 bis 30cm-1, haben und die Liege eine Länge von 1,60m bis 2,50m, bevorzugt 1,80m bis 2,20m haben. Insbesondere für eine Parameterwert α von 25cm-1 und einer Länge der Liege von 2m kann der Fokuspunkt im Abstand von ƒ = 1 4 × 0,25 m 1 = 1 m
    Figure DE102021202978A1_0003
    vom Scheitelpunkt der Parabel des Parabolspiegels vorgesehen sein. Ein flacher Parabolspiegel kann den Vorteil haben, dass er günstiger und/oder einfacher hergestellt werden kann als ein in zwei Richtungen gekrümmter Spiegel. Zudem kann durch einen flachen Parabolspiegel Platz über der Liege eingespart werden. Die Parabelform des flachen Parabolspiegels ist vorzugsweise parallel zu der horizontalen Ebene angeordnet, während der Spiegel in Vertikalrichtung eben ist. Der flache Parabolspiegel kann beispielsweise durch einen Rahmen gehalten werden, insbesondere einen Rahmen, dessen Erstreckungsrichtung im Wesentlichen in der horizontalen Ebene liegt, wobei der Rahmen insbesondere einer Richtung senkrecht zu der horizontalen Ebene nur eine geringe Erstreckung, insbesondere eine Erstreckung in der Größenordnung der entsprechenden Erstreckung des flachen Parabolspiegels, aufweist. Beispielsweise kann es vorgesehen sein, dass der Rahmen sich in y-Richtung in etwa mindestens genauso weit und maximal 20% mehr erstreckt wie der Parabolspiegel. Vorteilhafterweise kann zwischen der Lichtquelle bzw. dem Laser und dem Parabolspiegel, insbesondere direkt vor dem Laser, ein Lichtmuster erzeugendes Element angeordnet sein, wobei das Lichtmuster erzeugende Element insbesondere dazu konfiguriert ist die Form der Feedback-Markierung aus dem Licht- bzw. Laserstrahl zu erzeugen. Beispielsweise kann das Lichtmuster erzeugende Element ein diffraktives optisches Element (DOE) sein. Ein DOE ist insbesondere ein optisches Gitter, an dem der Laserstrahl gebeugt wird, beispielsweise ein Glasträger mit einer fotolithografisch aufgebrachten Mikrostruktur, sodass der Laserstrahl die Form der Feedback-Markierung erhält. Beispielsweise kann durch das DOE sowohl ein Muster als auch eine Strahldivergenz eingestellt werden. Es kann vorgesehen sein, die vom Laser ausgehenden Laserstrahlen leicht verkippt in y-Richtung auszusenden, z.B. um einen Winkel von 1°-10°, vorzugsweise 1°-5°. Der Parabolspiegel und/oder der Flachspiegel können beispielsweise an der Decke befestigt sein. Alternativ oder zusätzlich können der Parabolspiegel und/oder der Flachspiegel an einem Befestigungsmittel, z.B. einem Gestell oder einem Gerüst, über der Liege befestigt sein. Beispielsweise kann der Flachspiegel direkt über oder unter der Lichtquelle bzw. dem Laser angeordnet sein. Es ist auch denkbar, dass der Flachspiegel mit Bezug zu dem Parabolspiegel direkt hinter der Lichtquelle bzw. dem Laser angeordnet ist und sich jedoch in vertikaler Richtung bzw. in y-Richtung über und/oder unter der Lichtquelle bzw. dem Laser weiter erstreckt als die Lichtquelle bzw. der Laser. Alternativ oder zusätzlich kann es auch vorgesehen sein, dass der Flachspiegel ein halbdurchlässiger Spiegel ist, wobei der Flachspiegel mit Bezug zu dem Parabolspiegel vor der Lichtquelle bzw. dem Laser angeordnet ist. Es kann insbesondere vorgesehen sein, den Auftreffpunkt der Feedback-Markierung in z-Richtung dadurch einzustellen, dass die Lichtquelle, insbesondere der Laser, bzw. die Strahlrichtung des von der Lichtquelle ausgesendeten Lichtstrahls, insbesondere des vom Laser ausgesendeten Laserstrahls, insbesondere automatisch, um eine vertikale Achse bzw. um die y-Achse gedreht wird.
  • Insbesondere kann es vorgesehen sein, dass die Position der Feedback-Markierung in Längsrichtung der Liege eingestellt wird, indem die Lichtquelle, insbesondere der Laser, mittels eines von der Rechnereinheit gesteuerten ersten Motors in der horizontalen Ebene gedreht wird. Vorzugsweise kann es sich bei dem ersten Motor um einen Motor handeln, der für den Betrieb in einem Magnetfeld ausgelegt ist. Beispielsweise kann ein Ultraschallmotor, ein MR-kompatibler Schritt- und/oder Servomotor, ein pneumatischer Motor oder ein Hybridantrieb vorgesehen sein. Zusätzlich oder alternativ kann die Position der Feedback-Markierung in einer Querrichtung senkrecht zu der Längsrichtung der Liege, insbesondere der x-Richtung, eingestellt werden, indem der Flachspiegel mittels eines von der Rechnereinheit gesteuerten zweiten Motors um eine zu der Längsrichtung der Liege parallelen Achse um sich selbst gedreht wird. Vorteilhafterweise kann der zweite Motor nach den gleichen Aspekten wie der erste Motor ausgewählt werden. Eine Ablenkung in x-Richtung kann insbesondere vorteilhaft sein, um eine x-Koordinate angeben bzw. visualisieren zu können. Beispielsweise kann dadurch ein Field-of-View, insbesondere eines ersten Lokalizers, visualisiert werden.
  • Gemäß einer weiteren Ausführungsform kann es vorgesehen sein, dass die Feedback-Markierung mit zumindest einer über der Liege angeordneten und zu der Liege hin ausgerichteten Lichtprojektionsvorrichtung, insbesondere einem Videoprojektor erzeugt wird, wobei die Lichtprojektionsvorrichtung insbesondere eine Lichtquelle, eine Kollimationsoptik, eine Bildformungseinheit und eine Projektionsoptik umfasst. Die Lichtquelle kann beispielsweise ein Laser eine LED und/oder eine Lampe sein. Eine Kollimationsoptik ist insbesondere eine Vorrichtung, die Lichtstrahlen derart beeinflusst, dass diese parallel verlaufen. Die Bildformungseinheit kann insbesondere statisch (z.B. ein diffraktives optisches Element (DOE), Slide oder Gabo) dynamisch (z.B. ein Digital Light Processor (DLP) oder LCoS (Liquid Crystal on Silicon, Flüssigkristalle auf einem Siliziumsubstrat)) oder dynamisch transmissiv (z.B. ein LCD) sein. Die Bildformungseinheit kann insbesondere dazu dienen, die Feedback-Markierung, z.B. als Kreuz, zu gestalten bzw. formen. Die Projektionsoptik kann insbesondere Spiegel bzw. ein Spiegelsystem zur Umleitung der Strahlen umfassen. die Feedback-Markierung mit zumindest einem über der Liege angeordneten und zu der Liege hin ausgerichteten Videoprojektor erzeugt wird. Der Videoprojektor kann beispielsweise dazu konfiguriert sein, einen Paralaxenfehler digital durch Anpassen des projizierten Bildes zu korrigieren. Zusätzlich oder alternativ kann es vorgesehen sein, dass der zumindest eine Videoprojektor auf einer Längsachse parallel zu der Längsrichtung der Liege bewegbar ist. Der Videoprojektor kann insbesondere vertikal bzw. in y-Richtung ausgerichtet sein. Beispielsweise kann der Videoprojektor an der Decke oder an einem Gerüst oder Rahmen über der Liege befestigt sein. Vorteilhafterweise kann es vorgesehen sein, den Videoprojektor zur Festlegung der Position der Feedback-Markierung in Längsrichtung der Liege entlang der Längsachse der Liege, insbesondere an einer Schiene bzw. Linearachse, automatisch zu verschieben. Das Verschieben kann beispielsweise durch die Rechnereinheit oder durch eine weitere Rechnereinheit sowie mittels eines Antriebs, insbesondere Motors, gesteuert werden, wobei der Motor insbesondere dazu ausgelegt sein kann, in einem Magnetfeld betrieben zu werden. Es kann auch vorgesehen sein, mehrere Projektoren für die Erzeugung der Feedback-Markierung vorzusehen. Beispielsweise kann es vorgesehen sein, verschieden Farben für die Feedback-Markierung zu verwenden. Vorteilhafterweise kann der Videoprojektor es ermöglichen, auch komplizierte Muster, insbesondere 3D-Bilder zu erzeugen. Beispielsweise kann es vorgesehen sein, dass mittels des Videoprojektors ein 3D-Bild, insbesondere mittels Augmented-Reality(AR)/Holo-Lens-Effekt, auf die Oberfläche des Subjekts projiziert wird. Das 3D-Bild kann beispielsweise ein FOV-Kasten sein, der einen Messbereich, insbesondere für eine erste Testmessung oder Lokalizer-Messung, angibt. Beispielsweise kann es auch vorgesehen sein, das 3D-Bild ganz oder teilweise in dem Subjekt erscheinen zu lassen. Beispielsweise kann es vorgesehen sein, dass ein Nutzer, insbesondere ein medizinisch-technischer Assistent, das 3D-Bild mit einer 3D-Brille, insbesondere einer 3D-Shutter-Brille oder einer Polarisationsbrille, beobachtet. Zusätzlich kann es vorgesehen sein, dass auf dem Subjekt eine für die Widergabe der Projektion besonders geeignete Oberfläche, insbesondere eine Decke angeordnet wird. Beispielsweise kann die Oberfläche farblich einheitlich, insbesondere weiß, sein und/oder eine für eine Projektion von polarisiertem Lichte geeignete Oberfläche, insbesondere eine gleichmäßig glatte Oberfläche, aufweisen.
  • Gemäß einer Ausführungsform kann es zusätzlich oder alternativ vorgesehen sein, dass das Subjekt mit einer Kamera, insbesondere einer 3D-Kamera, oder einer Kombination aus mehreren 2D- und/oder 3d-Kameras überwacht wird. Die Kamera kann insbesondere eine 2D-Kamera oder eine 3D-Kamera sein. Es ist auch eine Kombination aus mehreren 2D- und/oder 3D-Kameras denkbar. Eine 2D-Kamera kann insbesondere verhältnismäßig preisgünstiger und ggf. deutlich höher auflösend als eine 3D-Kamera. Die 2D-Kamera kann insbesondere dazu ausgestaltet sein, die X- und Z-Koordinaten, z.B. der Fingerspitze, zu erfassen. Beispielsweise kann die Kamera vertikal nach unten gerichtet sein. Eine vertikal nach unten ausgerichtet 2D-Kamera ist insbesondere besonders gut dafür geeignet die x- und z-Koordinaten zu erfassen. Ein 2D-Bild kann insbesondere mit bekannten Techniken der Bildverarbeitung ermittelt werden. Z.B. können mit der 2D-Kamera zwei Bilder aufgenommen werden, insbesondere ein Bild ohne zeigende Hand und ein weiteres Bild mit der Hand. Eine Differenz der beiden Bilder kann verwendet werden, um ein Abbild der Hand zu erhalten. Vorzugsweise kann die zum Patienten zeigende Hand des Nutzers von oben gesehen immer im Wesentlichen entlang der X-Achse gerichtet sein, insbesondere unabhängig davon auf welcher Tischseite sich der Nutzer befindet. In diesem Fall kann die Fingerspitze insbesondere immer derjenige (X,Z)-Punkt sein, der näher an der Z-Achse ist als alle anderen Punkte des Differenzbildes. Eine 3D-Kamera kann eine Aufnahme in drei Raumrichtungen, insbesondere einschließlich der y-Richtung ermöglichen. Besonders vorteilhaft kann eine Kombination aus einer 3D-Kamera und einer höher auflösenden 2D-Kamera sein. Es kann vorgesehen sein, dass die 3D-Kamera dazu konfiguriert ist, dass mit der 3D-Kamera in 3D die Anwesenheit der zeigenden Hand detektiert werden kann und daraufhin die Bildaufnahme und Auswertung der Bilddifferenzen mit der 2D-Kamera getriggert werden kann. Die Y-Koordinate der Fingerspitze kann dabei immer mit der 3d-Kamera ermittelt werden. Beispielsweise kann die y-Koordinate eine Genauigkeit von +/-(5-20) mm, vorzugsweise ca. +/-10 mm aufweisen. Di X- und Z-Koordinaten der Fingerspitze können für die Lagebestimmung insbesondere wichtiger als die y-Koordinate sein. Mit der 2D-Kamera kann beispielsweise eine Genauigkeit von +/-(0,2-3) mm, vorzugsweise +/-1 mm, für die (X,Z)-Koordinaten ermittelbar sein. Vorteilhafterweise kann eine derartige Genauigkeit, insbesondere in Zusammenhang mit dem optischen Feedback ausreichen, um z.B. einen chirurgischen Eingriff zu planen. Beispielsweise kann die 3D-Kamera dazu verwendet werden, eine Paralaxen-Korrektur digital, insbesondere mit der Rechnereinheit, durchzuführen. Insbesondere kann es vorgesehen sein, dass mittels der 3D-Kamera die Höhe des Subjekts an der erfassten Position bestimmt wird, wobei mittels einer Rechnereinheit eine Paralaxen-Korrektur der erzeugten Feedback-Markierung ausgeführt wird. Insbesondere kann eine Korrektur der Feedback-Markierung in Längsrichtung der Liege, insbesondere in z-Richtung, und/oder in einer vertikalen Richtung, insbesondere in y-Richtung, durchgeführt werden. Beispielsweise kann es vorgesehen sein, dass der Videoprojektor an einer Stelle über der Liege fest angebracht bzw. statisch fixiert ist, insbesondere nicht in Längsrichtung bewegbar ist, und ein Paralaxenfehler auf Basis von durch die 3D-Kamera erfassten Bildern des Subjekts und/oder der Liege durch die Rechnereinheit oder eine weitere Rechnereinheit korrigiert wird. Die 3D-Kamera kann beispielsweise auf einer stereoskopischen Erfassung basieren, wobei die Kamera insbesondere zwei Linsen umfasst. Alternativ kann das die 3D-Kamera auch auf einer Kodierung eines ausgesendeten Musters basieren, wobei anhand der Verzerrung des Musters auf dem erfassten Objekt die dreidimensionale Topographie des erfassten Objekts bestimmt werden kann. Auch eine Time-of-Flight basierte 3D-Erfassung ist denkbar, wobei die Kamera einen Projektor umfasst, der Licht aussendet, wobei anhand der Laufzeit des reflektierten Lichts eine dreidimensionale Position im Raum bestimmt werden kann. Alternativ ist eine Projektion von Streifen unterschiedlicher Breite denkbar, mittels derer die dreidimensionale Position ermittelt werden kann. Vorteilhafterweise kann die 3D-Kamera über der Liege fest angebracht bzw. statisch fixiert sein. Alternativ ist es auch denkbar, dass die 3D-Kamera, z.B. zusammen bzw. simultan mit dem Videoprojektor, auf einer Schiene, insbesondere in Längsrichtung, bewegbar ist. Vorteilhafterweise kann eine Bewegbarkeit der 3D-Kamera verwendet werden, um verschiedene Ansichten des Subjekts zu erfassen bzw. erfassen zu können. Beispielsweise kann es vorgesehen sein, dass die 3D-Kamera auf einer linearen Achse, insbesondere parallel zu der Längsrichtung der Liege, bewegt wird, wobei die Kamera verschieden Ansichten des Subjekts aufnimmt und zu einem 3D-Bild, insbesondere eine hochaufgelösten 3D-Bild, zusammensetzt. Beispielsweise kann es vorgesehen sein, dass die 3D-Kamera eine Fahrt über dem Subjekt vornimmt, und dabei Bilder aufnimmt. Nach der abgeschlossenen Fahrt können die Bilder dann zu einem Gesamtbild zusammengesetzt werden. Durch die Bewegung der 3D-Kamera kann es vorteilhafterweise möglich sein, den Abstand der 3D-Kamera und der Liege bzw. dem Subjekt zu verringern, insbesondere auf 50 cm bis 150 cm, vorzugsweise auf 80cm bis 120cm und besonders bevorzugt auf ca. 1 Meter, wobei dennoch der gesamte Bereich des Subjekts erfasst werden kann. Der erfassbare Bereich kann üblicherweise durch den Öffnungswinkel der Kamera bzw. des Kameraobjektivs beschränkt sein, wodurch sich durch den zu erfassbaren Bereich ein Mindestabstand zu dem Subjekt ergeben kann, der nötig ist, um alle Stellen des Bereichs erfassen zu können. Diese Einschränkung kann vorteilhafterweise durch eine bewegbare 3D-Kamera umgangen werden. Eine näher am Subjekt platzierte Kamera, kann vorteilhafterweise eine höhere Bildauflösung des Gesamtbilds bzw. eine bessere effektive räumliche Auflösung ermöglichen. Beispielsweise können Bildaufnahmen der 3D-Kamera verwendet werden, um Subjekteigenschaften, insbesondere Größe und/oder Gewicht und/oder Form, zu bestimmen. Alternativ können durch die Bildaufnahmen auch die Position bzw. Oberflächenkoordinaten einer lokalen RF-Spule (Radiofrequenz-Spule zum Empfangen des MR-Signals) bestimmt werden; dies kann bei MRT-PET Kombinationsgeräten zur Berechnung der Attenuation-Correction verwendet werden, also der Schwächung des PET-Bildes durch die RF-Lokalspule. Eine höhere effektive Auflösung kann eine noch genauere Bestimmung des Paralaxenfehlers und/oder der Position des Markierobjekts ermöglichen. Vorteilhafterweise kann ein Antrieb bzw. ein Antriebsmotor für die Bewegung der 3D-Kamera nach analogen Prinzipien wie der Motor für den Laser bzw. die Spiegel ausgewählt werden.
  • Gemäß einer Ausführungsform, welche insbesondere mit einer der anderen Ausführungsformen kombiniert werden kann, kann es vorgesehen sein, dass das Markierobjekt eine menschliche Hand, insbesondere ein Finger, eines Nutzers ist, wobei die Position der Hand, insbesondere des Fingers, mittels einer Kamera, insbesondere 3D-Kamera, ermittelt wird. Beispielsweise kann es vorgesehen sein, dass ein Nutzer, insbesondere ein medizinisch-technischer Assistent, mit seiner Hand auf eine zu untersuchende Stelle des Subjekts, insbesondere des Körpers des Patienten zeigt. Das Angeben des Bereichs mit der Hand bzw. mit dem Finger kann eine verhältnismäßig schnelle und einfache sowie intuitive Möglichkeit der Positionsangabe darstellen. Beispielsweise kann die Position der Hand bzw. des Fingers mit einer Kamera, insbesondere 3D-Kamera, z.B. mit der oben beschriebenen 3D-Kamera, erfolgen. Die Bilddaten können verwendet werden um eine Position, beispielsweise (x,y,z)-Koordinaten, zu berechnen. Insbesondere kann automatisch eine Position der Fingerspitze ermittelt werden. Die Position kann entweder direkt an der Kamera ermittelt werden oder die Bilddaten können zur Ermittlung der Position an eine Rechnereinheit weitergeleitet werden. Es kann vorgesehen sein, dass die Hand bzw. der Finger als unteres Ende eines zylindrischen Objekts, insbesondere des Arms des Nutzers, mit für die menschliche Anatomie typischen Maßen, erkannt wird bzw. als Erkennungsmethode in der Rechnereinheit gespeichert ist. Weiterhin kann die ungefähre Position des Arms und/oder der Hand gespeichert sein, beispielsweise als ungefähr zylindrisches Objekt, welches sich von einem Punkt jenseits der Liege, insbesondere von einer Schulter, von oben schräg nach unten in Richtung Liege bzw. Subjekt erstreckt. Mit derartigen Vorgaben kann eine besonders zuverlässige Erfassung der Hand bzw. des Fingers und damit eine zuverlässige Ermittlung der Position ermöglicht werden.
  • Gemäß einer weiteren Ausführungsform kann das Markierobjekt ein handgeführter Gegenstand sein, wobei der handgeführte Gegenstand einen aktiven, passiven oder autarken Positionssensor enthält. Beispielsweise kann der handgeführte Gegenstand eine Elektronik und/oder Sensorik zu Bestimmung und/oder Angabe der Position umfassen. Die Position kann insbesondere anhand der Lage und/oder Ausrichtung des Gegenstands im Raum erfolgen. Vorteilhafterweise kann der Gegenstand einen Beschleunigungssensor und/oder Neigungssensor, insbesondere zur Bestimmung einer Neigung des Gegenstandes umfassen, um nicht nur dessen Position, sondern auch dessen Richtung zu erfassen. Beispielsweise kann der Gegenstand auch einen Mikrokontroller zur Steuerung umfassen, insbesondere im Falle eines autarken oder aktiven Positionssensors. Der Gegenstand kann optional einen An- und Ausschalter, insbesondere einen Knopf, umfassen. Ein derartiger Schalter kann vorteilhafterweise dazu geeignet sein, Energie zu sparen. Der Gegenstand kann beispielsweise ein Stab sein („Zauberstab“). Vorteilhaft kann auch die Neigung bzw. Richtung eines solches Stabes detektiert werden, und damit kann die „Position des Markierobjekts“ in diesem Fall auch eine Position sein, welche sich in der Verlängerung des Stabes befindet, also ein Ort, auf den der Nutzer mit dem Stab zeigt. Ein handgeführter Gegenstand kann eine effektive und intuitive Angabe der Position ermöglichen, wobei gleichzeitig eine verhältnismäßig zuverlässige Positionsübermittlung gewährleistet werden kann.
  • Zusätzlich oder alternativ zu einer der anderen Ausführungsformen kann es vorgesehen sein, dass Gesten mit der Hand, insbesondere dem Finger, und/oder dem handgeführten Gegenstand als Positionseingabe, zur Eingabe eines Field-of-Views einer mit dem Bildgebungsgerät durchzuführenden Messung und/oder zum Übermitteln von Steuerbefehlen, insbesondere mit Hilfe projizierter Bedienelemente, verwendet werden. Beispielsweise kann es vorgesehen sein, dass der Umriss eines Field-of-Views in die Luft gezeichnet wird. Beispielsweise kann es vorgesehen sein, dass die Eingabe des Field-of-View zum Spezifizieren des Field-of-View (FOV) einer ersten Messung oder Testmessung, insbesondere eines ersten Lokalizers, verwendet wird. Auf diese Weise kann es insbesondere vorgesehen sein, sowohl die z-Position bzw. die Position in Längsrichtung der Liege als auch die x- und y-Positionen bzw. die zu der Längsrichtung senkrechten Raumrichtungen anzugeben. Das FOV kann insbesondere über Vektoren und/oder Skalare definiert werden. Beispielsweise kann ein Vektor (x, y, z) vorgesehen sein, der das Zentrum des FOV angibt. Dieser Vektor kann insbesondere aus der erfassten Position ermittelt werden. Zusätzlich oder alternativ ist es denkbar, dass Gesten aufgrund der zeitlichen Abfolge von einzelnen, insbesondere vorbestimmten, Positionen erkannt werden, insbesondere von der Erfassungsvorrichtung erfasst werden und von der Rechnereinheit ausgewertet bzw. mit gespeicherten vorbestimmten Positionen abgeglichen werden. Beispielsweise kann es vorgesehen sein, dass ein Bewegen des Markierobjekts zu dem Subjekt hin und das Halten der Position für eine vorbestimmte Zeit, z.B. 1-2 Sekunden, als Positionseingabe erfasst wird. Insbesondere durch die Feedback-Markierung kann sichergestellt werden, dass die Positionseingabe korrekt registriert wird. Alternativ oder zusätzlich kann mit dem Markierobjekt einerseits ein singulärer Punkt als Position angegeben werden, als auch ein Bereich, z.B. ein Kreis, Rechteck und/oder Polygon, angegeben werden, insbesondere durch Einkreisen des Bereichs. Der Bereich kann insbesondere das FOV definieren. Alternativ oder zusätzlich kann eine Bewegung des Markierobjekts weg von dem Subjekt, insbesondere in Richtung des Erfassungsbereichs des bildgebenden Systems, als Befehl zu einem Hineinfahren der Liege in den Erfassungsbereich verwendet werden, wobei insbesondere die erfasste Position in ein Isozentrum des medizinischen Bildgebungssystems bewegt wird. Die projizierten Bedienelemente können beispielsweise durch eine Lichtprojektionsvorrichtung, insbesondere einem Projektor oder Videoprojektor, erzeugbar sein. Beispielsweise kann es vorgesehen sein, mit einem Projektor Knöpfe bzw. Bedienelemente, z.B. ein grünes Dreieck, auf die Liegenkante, insbesondere in greifbarer Nähe eines Nutzers, zu projizieren. Insbesondere kann ein Berühren der projizierten Bedienelemente, insbesondere mit der Hand als Markierobjekt, durch die Erfassungsvorrichtung erfassbar sein. Das Berühren der Bedienelemente kann beispielsweise ein Hineinfahren der Liege oder sonstige Befehle auslösen. Beispielsweise kann zusätzlich ein Touch-Display vorgesehen sein, an dem entsprechende bzw. gleiche Bedienelemente anzeigbar sind.
  • Gemäß einer Ausführungsform kann das Markierobjekt ein(en) aktiven, passiven oder autarken Positionssensor bzw. Positionssensorelement enthalten und zum Angeben des zu untersuchenden Bereichs auf den gewünschten Bereich gelegt und dort auf dem Subjekt befestigt werden. Das Markierobjekt kann beispielsweise einen Energiespeicher, insbesondere einen Akku oder eine Batterie, zum Betreiben des Positionssensors umfassen, insbesondere im Falle eines aktiven und/oder autarken Positionssensors. Insbesondere kann es vorgesehen sein, dass eine Decke, insbesondere Wärmedecke, auf dem Subjekt platziert wird oder ist, wobei das Markierobjekt mittels einer Klebeschicht oder mittels einer Klettfläche an der Decke befestigt wird. Das Markierobjekt kann beispielsweise per Klettverschluss an dem Subjekt und/oder an der auf dem Subjekt liegenden Decke, befestigt werden. Insbesondere kann die Decke Klettflächen umfassen. Alternativ oder zusätzlich kann eine Befestigung per Klettverschluss auch an anderen Gegenständen, die am Subjekt angeordnet sind, z.B. an Klettflächen auf Flex-Spulen, erfolgen. Alternativ oder zusätzlich kann das Markierobjekt beispielsweise eine Klebeschicht zur Befestigung umfassen. Insbesondere kann die Decke und/oder der andere Gegenstand eine glatte Schicht zur Befestigung des Markierobjekts mit der Klebeschicht umfassen. Alternativ oder zusätzlich kann eine Befestigung des Markierobjekts mittels Gurten erfolgen. Beispielsweise können die Gurte form- und/oder kraftschlüssig, insbesondere per Einrastverschluss, an der Liege befestigt sein oder werden. Ein Ablegen des Markierobjekts auf dem Subjekt kann eine intuitive und bequeme Angabe der Position ermöglichen, wobei sich der Nutzer nach dem Ablegen optional anderen Aufgaben und/oder einer eingehenderen Überprüfung der eingegebenen Position widmen kann.
  • Gemäß einer Ausführungsform, die insbesondere mit den anderen Ausführungsformen kombiniert werden kann, kann der aktive, passive oder autarke Positionssensor einen beleuchteten optischer Retroreflektor und/oder einen optischer Sender enthalten, wobei zumindest eine 2D-Kamera und/oder 3D-Kamera das Markierobjekt erfasst, oder einen Ultraschall- oder Infrarotsender enthalten, wobei die Position des Positionssensors insbesondere per Trilateration und/oder Triangulation ermittelt wird, oder einen Magnetfeldsensor enthalten, wobei das Bildgebungsgerät ein Magnetresonanzgerät ist und die Position über die Stärke der magnetischen Flussdichte am Magnetsensor bestimmt wird, wobei die Stärke der magnetischen Flussdichte insbesondere von dem Abstand zu dem Hauptmagneten des Magnetresonanzgeräts abhängt . Insbesondere kann die Stärke der magnetischen Flussdichte mit steigendem Abstand zu dem Hauptmagneten abnehmen. Es können beispielsweise 3 Detektoren an der Zimmerdecke befestigt sein, welche dazu konfiguriert sind Signale zu empfangen. Ein aktiver Positionssensor kann beispielsweise ein optischer Sender, insbesondere eine oder mehrere Leuchtdioden (LEDs), insbesondere Infrarot-LEDs, oder ein Ultraschall-Sender sein. Die Erfassungsvorrichtung kann insbesondere eine 2D Kamera oder eine 3D-Kamera und oder ein optischer Positionssensor, z.B. ein PSD-Sensor (Position Sensitive Detector) sein. Insbesondere können drei Sensoren vorgesehen sein, wobei die Sensoren in den Ecken eines Dreiecks angeordnet sein können. Alternativ oder zusätzlich können auch mehrere Ultraschall-Empfänger vorgesehen sein, die insbesondere dazu konfiguriert sind, aus empfangenen Ultraschall-Signalen eine Position zu berechnen. Die Auswertung der Position kann insbesondere mittels Trilateration erfolgen. Trilateration kann insbesondere bedeuten, dass die Position aus mehreren, insbesondere drei, Entfernungsmessungen ermittelt wird. Beispielsweise können mehrere Ultraschallsignale zum Messen mehrere Entfernungen zu Referenzpunkten verwendet werden, wobei aus den mehreren Entfernungen die Position ermittelt werden kann. Alternativ oder zusätzlich kann die Auswertung der Position mittels Triangulation erfolgen. Bei der Triangulation kann z.B. eine Strecke zwischen zwei Basispunkten bekannt sein, wobei mit einer gesuchten dritten Position ein Dreieck gebildet werden kann. Werden nun die Winkel zwischen der Strecke zwischen den Basispunkten und der jeweiligen Strecke von den Basispunkten zu der Position ermittelt, kann daraus die Position ermittelt werden. Beispielsweise können die Winkel mit zumindest einer, vorzugsweise mehreren, 2D-Kamera oder 3D-Kamera, sowie mit Infrarotstrahlen bestimmt werden. Ein passives Positionssensorelement kann beispielsweise ein optischer Retroreflektor sein. Ein Retroreflektor ist insbesondere eine Vorrichtung, die einfallende Strahlen im Wesentlichen unabhängig von der Einfallsrichtung und der Ausrichtung des Retroreflektors im Wesentlichen in die Richtung reflektiert, aus der die Strahlen kommen. Insbesondere kann ein Stab mit einer Vielzahl von Glaskugeln an seinem Ende vorgesehen sein, welche mit Silber verspiegelt sind. Die Glaskugeln können beispielsweise jeweils einen Durchmesser von 20 bis 200 Mikrometern, vorzugsweise von 40 bis 160 Mikrometern, und besonders bevorzugt von 60 bis 100 Mikrometern, haben. Die Kugeln können beispielsweise an einem Träger am Ende des Stabes angeordnet sein. Beispielsweise kann der Träger selbst ebenfalls eine Kugelform aufweisen. Beispielsweise kann der Retroreflektor ein Muster enthalten, z.B. einen CR-Code. Ein Muster kann insbesondere vorteilhaft sein, wenn mehrere Markierobjekte verwendet werden, wobei eine Unterscheidung der verschiedenen Markierobjekte ermöglicht werden kann. Das medizinische Bildgebungssystem kann eine Beleuchtungsvorrichtung umfassen, mit der das passive Markierobjekt, insbesondere mit Infrarotstrahlung, beleuchtet werden kann. Reflektierte Strahlen können beispielsweise mit zumindest einer 2D-Kamera und/oder 3D-Kamera erfasst werden. Ein autarker Positionssensor kann insbesondere dazu konfiguriert sein, selbst die aktuelle Position zu ermitteln. Die Übermittlung kann per Kabel oder kabellos erfolgen. Insbesondere kann der autarke Positionssensor einen Funksender einen Ultraschallsender und/oder einen optischen Sender, z.B. einen Infrarot-Link oder Lichtwellenleiter, umfassen, der dazu konfiguriert ist, die Position an das System zu übermitteln. Beispielsweise kann der autarke Positionssensor eine 3D-Hall-Sonde umfassen, welche aufgrund des äußeren Magnetfeldes eine Position, insbesondere in Längsrichtung der Liege, ermitteln kann. Eine 3D-Hall-Sonde kann insbesondere bei einem medizinischen Bildgebungssystem verwendet werden, welches zur Messung ein Magnetfeld erzeugt, z.B. ein Magnetresonanztomograph. In diesem Fall kann das Magnetfeld außerhalb des Erfassungsbereichs mit zunehmendem Abstand abnehmen, was zu einer Positionsermittlung verwendet werden kann. Insbesondere kann ein Verfahren bzw. eine Vorrichtung wie in der Anmeldung DE 10 2016 203 255 A1 offenbart verwendet werden. Alternativ oder zusätzlich kann der Positionssensor einen Ultraschallempfänger umfassen, wobei am Bildgebungssystem, beispielsweise an einem magnetfelderzeugenden Element bzw. einem Magneten des Systems, mehrere Ultraschallsender angeordnet sind. Der Positionssensor kann dann Ultraschallsignale der Ultraschallsender empfangen und daraus die Position ermitteln.
  • Gemäß einer Ausführungsform kann es vorgesehen sein, dass eine längliche Vertiefung seitlich und in Längsrichtung der Liege angeordnet ist und mit einem Berührungs- oder Entfernungsmesser, insbesondere einem Laser- und/oder ein Ultraschallmesser, oder mit kapazitiven und/oder resistiven Sensorstreifen, für das Messen einer Entfernung in Längsrichtung stellvertretend für die zu erfassende Position versehen ist, wobei das Markierobjekt zur Bestimmung der Position in die Vertiefung eingeführt wird und von dem Entfernungsmesser registriert wird. Beispielsweise kann der Nutzer das Markierobjekt, insbesondere seine Hand und/oder einen Finger, in die seitliche Vertiefung bewegen und somit einen Laserstrahl des Entfernungsmessers unterbrechen oder eine Ultraschallwelle unterbrechen oder zurückwerfen oder den Berührungsmesser auslösen. Beispielsweise können Laser- oder Ultraschalentfernungsmesser mit einem Messbereich von bis zu maximal 2,2m bis 3m, vorzugsweise von bis zu 2,5 m und eine Auflösung von 0,5mm bis 2mm, insbesondere 1mm, vorgesehen sein. Diese Werte haben sich in der Praxis als guter Kompromiss herausgestellt, was sowohl eine ausreichende Auflösung als auch technische Umsetzbarkeit und anfallende Kosten betrifft. Aus einer Messung der Entfernung zu einer Referenzposition kann die Position in Längsrichtung bzw. z-Richtung ermittelt werden. Basierend auf der Feedback-Markierung kann der Nutzer die Position des Markierobjekts feinjustieren, wenn die erfasste Position noch nicht genau die vorgesehene Position ist. Die kapazitiven und/oder resistiven Sensorstreifen können insbesondere entlang der Vertiefung angeordnet sein. Über die Sensorstreifen kann Position in Längsrichtung insbesondere elektrisch erfasst werden. Eine Erfassung in der Vertiefung kann eine besonders kostengünstige und/oder einfach zu implementierende Lösung darstellen, da die Vertiefung den Entfernungs- oder Berührungsmesser vor versehentlichem Auslösen schützt.
  • Gemäß einer weiteren Ausführungsform kann das Subjekt und die Liege mit einer 2D-Kamera und/oder 3D-Kamera erfasst und aufgezeichnet werden und in einer virtuellen Umgebung, insbesondere auf einem Touch-Display, angezeigt werden, wobei das Markierobjekt ein Finger ist, wobei der Finger den zu untersuchenden Bereich in der virtuellen Umgebung angibt. Diese Ausführungsform kann vorteilhafterweise besonders gut in bestehende Systeme implementiert werden, da dort oft bereits ein Touch-Display vorhanden ist. Die Bildaufnahme des Subjekts kann insbesondere mit einem RGB-Sensor der Kamera erfolgen. Zusätzlich zu der Eingabe einer Position kann auch ein Bereich, insbesondere ein Messbereich, z.B. durch Einkreisen mit dem Finger, angegeben werden. Nach der Eingabe der Position kann es vorgesehen sein, dass der Nutzer einen Befehl zum Hineinfahren der Liege in den Erfassungsbereich, z.B. am Touch-Display, eingibt. Gemäß einer Ausführungsform kann es vorgesehen sein, dass zunächst eine Gesamtansicht des Subjekts angezeigt wird, wobei nach einer ersten Eingabe durch den Finger die Umgebung um die gegenwärtig erfasste Position in einer vergrößerten Darstellung angezeigt wird, wobei die Feedback-Markierung sowohl an dem Subjekt als auch in der virtuellen Umgebung, insbesondere auf dem Touch-Display, angezeigt wird, wobei der Nutzer die Position der Feedback-Markierung prüft und, wenn notwendig, mittels einer zweiten Eingabe durch den Finger in der vergrößerten Darstellung korrigiert, um den zu untersuchenden Bereich genauer festzulegen. Insbesondere kann es vorgesehen sein, dass zunächst ein Bild des gesamten Subjekts auf dem Touch-Display angezeigt wird und dass nach dem Berühren des Touch-Displays zur Positionseingabe der Bildausschnitt an der berührten Stelle bzw. um die berührte Stelle herum vergrößert wird. In dem vergrößerten Bildausschnitt kann daraufhin eine genauere Positionseingabe bzw. Positionskorrektur erfolgen. Es kann vorgesehen sein, dass ein angegebener Messbereich an dem Touch-Display, insbesondere in vertikaler Richtung bzw. y-Richtung, manuell direkt verschoben werden kann. Beispielsweise kann es vorgesehen sein, dass ein Messbereich in das Subjekt hineingeschoben wird. Alternativ oder zusätzlich ist es denkbar, dass der Messbereich noch nach dem Bewegen der Liege in den Messbereich bzw. in das Isozentrum korrigiert bzw. feinjustiert werden kann. Beispielsweise kann es vorgesehen sein, dass nach dem Bestimmen des Messbereichs bzw. des FOV, das Zentrum eines Lokalizers, insbesondere eines ersten Lokalizers, mit dem Zentrum des FOV übereinstimmt. Beispielsweise kann es vorgesehen sein, dass drei Standardschichten, insbesondere eine Sagittal-, eine Koronal- und eine transversale Ebene, automatisch gemessen werden, sobald die Liege an der bestimmten Position im Erfassungsbereich ist.
  • Gemäß einer Ausführungsform kann es vorgesehen sein, dass ein Field-of-View für eine Messung durch das Bildgebungssystems basierend auf der Position des Markierobjekts und einem Offset in einer zur Längsrichtung der Liege senkrechten Schnittebene bestimmt wird, wobei der Offset basierend auf der dem jeweiligen Bereich zugeordneten Körperregion des Subjekts, insbesondere über Erfahrungswerte zum Offset und der Größe des Field-of-Views, bestimmt wird. Erfahrungswerte können beispielsweise auf Aufzeichnungen vorheriger Messungen und/oder entsprechenden Tabellen basieren. Das Field-of-View (FOV) kann insbesondere verwendet werden, um einen ersten Lokalizer bzw. eine erste Testmessung durchzuführen. Der erste Lokalizer kann insbesondere eine Messung der Sagittal-, Koronal-, und Transversal-Schichten umfassen, welche sich an der durch den Offset korrigierten Position des Markierobjekts schneiden. Vorteilhafterweise kann ein medizinischer Workflow dadurch gegebenenfalls beschleunigt werden, weil eine manuelle Eingabe des Lokalizers nicht mehr nötig ist, und/oder weil die Position des Lokalizers genauer mit der Position des zu untersuchenden Organs übereinstimmt. Insbesondere können sagittale und koronale Schichten anstatt durch das Isozentrum durch die mit dem Markierobjekt festgelegte Position (ggf. einschließlich Offset) verlaufen. Das FOV kann insbesondere über Vektoren und/oder Skalare definiert werden. Beispielsweise kann ein Vektor (x, y, z) vorgesehen sein, der das Zentrum des FOV angibt. Dieser Vektor kann insbesondere aus der erfassten Position ermittelt werden. Um das FOV noch genauer, insbesondere innerhalb des Subjekts, zu spezifizieren, kann zumindest ein Offset zu der Position berechnet werden. Insbesondere kann der Offset aus zwei Offsets in den Raumrichtungen (x, y) senkrecht zu der Längsrichtung der Liege (z-Richtung) bestehen. Dadurch kann insbesondere die Position in das Subjekt hinein verschoben werden, insbesondere vertikal nach unten und/oder in die Richtung des Schwerpunkts in der (x,y)-Ebene. Die FOV-Position kann sich folgendermaßen aus der erfassten Position des Markierobjekts MP und den beiden Offsetrichtungen MPoffsetX und MPoffsetY zusammensetzen: FOV Position = M P + M P OffsetX + M P OffsetY
    Figure DE102021202978A1_0004
    wobei M P OffsetX = ( 1,0,0 ) × RegionFaktorX ( M P )
    Figure DE102021202978A1_0005
    M P OffsetY = ( 0, 1,0 ) × RegionFaktorY ( M P )
    Figure DE102021202978A1_0006
    ist. Beispielsweise kann eine FOV-Normale ein Vektor der Länge Eins bzw. mit dem Betrag Eins sein, beispielsweise festgelegt auf die Transversal-Richtung bzw. die Normale (0,0,1) Zusätzlich kann ein FOV-Rotationswinkel verwendet werden, insbesondere ein Skalar, welches die Drehung angibt, z.B. kann dieser Wert auf 0 festgelegt werden. Optional kann zusätzlich eine Größe des FOV, FOV-Größe(MP), aus einer Tabelle mit vorbestimmten Werten in Abhängigkeit von der jeweiligen Position des Markierobjekts (MP) entnommen werden. Die Tabellen könne insbesondere vorbestimmte Werte für RegionFaktorX(MP), RegionFaktorY(MP) und FOV-Größe(MP) enthalten, jeweils in Abhängigkeit von der erfassten Position des Markierobjekts MP. Diese Werte können insbesondere davon abhängen, welcher Bereich des Subjekts, insbesondere welche Körperregion des Patienten ausgewählt bzw. erfasst ist. Beispielsweise kann eine Position auf dem Abdomen gemäß den Erfahrungswerten ein tiefer liegendes und größer dimensioniertes FOV bedingen als eine Position an oder auf der Schulter.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Verfahren zur Bestimmung eines Field-of-Views für eine Messung durch das Bildgebungssystems basierend auf einer Position eines Markierobjekts, welches einen zu untersuchenden Bereich an einem Subjekt markiert, vorgesehen, wobei die Position insbesondere nach einem der vorhergehenden Ansprüche bestimmt wurde, wobei die Bestimmung des Field-of-Views durch ein künstliches neuronales Netzwerk vollzogen wird, wobei das neuronale Netzwerk eine Eingabeschicht zur Eingabe von Eingabedaten umfasst, welche die Position des Markierobjekts und optional eine Größe, ein Gewicht ein Geschlecht und/oder eine Lagerung, insbesondere Lage und Richtung, des Subjekts umfassen, wobei das neuronale Netzwerk mehrere verdeckte Schichten, insbesondere 5 bis 10 verdeckte Schichten umfasst, wobei das neuronale Netzwerk eine Ausgabeschicht umfasst, welche zumindest den Offset und die Größe des Field-of-Views ausgibt. Alle Merkmale und Vorteile des Verfahrens zur Bestimmung eines zu untersuchenden Bereichs können analog auf das Verfahren zur Bestimmung eines Field-of-Views übertragen werden und umgekehrt. Insbesondere können die Aspekte zur Bestimmung des FOV, insbesondere in Bezug zu dem Offset verwendet werden. Vorteilhafterweise können Tabellen aus Erfahrungswerten als Basis oder Trainingsdaten für das neuronale Netz verwendet bzw. implementiert werden. Vorzugsweise enthält das neuronale Netzwerk vollständig verbundene Schichten (fully connected layers). Das neuronale Netzwerk kann beispielsweise 5 bis 50 Neuronen, vorzugsweise 8 bis 20 Neuronen, in der Eingabeschicht umfassen. Eingabewerte können beispielsweise eine Patientengröße (insbesondere ein Wert), ein Patientengewicht (insbesondere ein Wert), ein Patientengeschlecht (insbesondere ein Wert) eine Lagerung (insbesondere 2 Werte, nämlich Lage und Richtung), eine zu untersuchende Körperregion (insbesondere als Nummerncodierter Wert) und/oder die Position des Markierobjekts (insbesondere 3 Werte, nämlich die drei Raumrichtungen) sein. In Bezug zu der zu untersuchenden Körperregion kann beispielsweise ein vorbestimmtes Nummerierungssystem vorgesehen sein, wobei allen zu untersuchenden Körperregionen, die bekannterweise gegebenenfalls untersucht werden, jeweils eine Nummer zugewiesen ist. Diese zugewiesene Nummer kann dann insbesondere ein Inputparameter sein. Beispielsweise kann die Nummerierung 1=Kopf, 2=Herz, 3=Knie, 4=linke Brust, 5=rechte Brust etc. lauten. Insbesondere können die Eingabewerte die zu einer Messung notwendigen Parameter sein. Die zu einer Messung notwendigen Parameter können als Messprotokolle, insbesondere bei einer SHS-MR-Messung, bezeichnet werden. Weiterhin können 2 bis 30, vorzugsweise 5 bis 10, verdeckte Schichten vorgesehen sein, welche vorzugsweise jeweils 150 bis 1300 Neuronen umfassen. Die Ausgabeschicht kann insbesondere 2 bis 30, vorzugsweise 5 bis 10, Neuronen umfassen. Ausgabewerte können insbesondere den RegionFaktorX, den RegionFaktorY, die FOV-GrößeX, die FOV-GrößeY, und die FOV-GrößeZ umfassen. Durch die Verwendung eines neuronalen Netzwerkes kann eine besonders genaue Eingabe bzw. Ermittlung des FOV, insbesondere des ersten Lokalizers, ermöglicht werden. Die angegebenen Zahlenwerte hinsichtlich der Zahl der Schichten und Neuronen können einen besonders guten Kompromiss aus Rechenaufwand und Genauigkeit und Zuverlässigkeit ermöglichen.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Verfahren zum Trainieren eines künstlichen neuronalen Netzwerkes zur Bestimmung eines Field-of-Views für eine Messung durch das Bildgebungssystems basierend auf einer Position eines Markierobjekts, welches einen zu untersuchenden Bereich an einem Subjekt markiert, insbesondere gemäß Anspruch 20, vorgesehen, wobei das neuronale Netzwerk eine Eingabeschicht, insbesondere umfassend 8 bis 20 Neuronen, mehrere, insbesondere 5 bis 10, verdeckte Schichten, insbesondere mit je 150 bis 1300 Neuronen, und eine Ausgabeschicht, insbesondere mit 5 bis 10 Neuronen, umfasst, wobei während des Trainings Dropout-Schichten, insbesondere mit einer Dropout-Rate von 3-5%, verwendet werden, wobei das Verfahren die folgenden Schritte umfasst: (1) Bereitstellen von Eingabe-Trainingsdaten, wobei die Eingabe-Trainingsdaten die Position des Markierobjekts und insbesondere eine Größe, ein Gewicht ein Geschlecht und/oder eine Lagerung, insbesondere Lage und Richtung, des Subjekts umfassen; (2) Bereitstellen von Ausgabe-Trainingsdaten, welche manuell durch einen Nutzer aus den Eingangs-Trainingsdaten spezifizierte Daten eines Offsets zur Position des Markierobjekts und einer Größe des Field-of-Views umfassen; (3) Trainieren des neuronalen Netzwerks mit den Eingabe-Trainingsdaten und Ausgabe-Trainingsdaten, insbesondere mittels Backpropagation; (4) Ausgeben des trainierten neuronalen Netzwerks. Alle Merkmale und Vorteile des Verfahrens zur Bestimmung eines zu untersuchenden Bereichs und des Verfahrens zur Bestimmung eines Field-of-Views können analog auf das Verfahren zum Trainieren eines künstlichen neuronalen Netzwerkes übertragen werden und umgekehrt. Es kann insbesondere ein Feedforward-Netz mit Backpropagation als überwachte Lernmethode verwendet werden. Das Netz kann einen Aufbau aufweisen der im Wesentlichen dem oben beschriebenen neuronalen Netzwerk entspricht. Vorgesehen sein können beispielsweise eine oder mehrere Dropout-Schichten mit einer Dropout-Rate von 1%-10%, vorzugsweise von 3%-5%. Trainingsdaten können insbesondere gesammelte Daten von in vorherigen Messungen manuell spezifizierten Lokalizer-Positionen sein.
  • Gemäß einem weiteren Aspekt der Erfindung ist ein Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt, insbesondere einem Patienten, auf einer bewegbaren Liege eines medizinischen Bildgebungssystems vorgesehen, umfassend eine Erfassungsvorrichtung zum Erfassen der Position eines Markierobjekts in Relation zu dem Subjekt, eine Projektionsvorrichtung zur Projektion und/oder Anzeige einer Feedback-Markierung an der erfassten Position an dem Subjekt, eine Rechnereinheit, wobei die Rechnereinheit dazu konfiguriert ist, eine Messposition der Liege auf Grundlage der erfassten Position zu ermitteln, und einen Motor, wobei der Motor dazu konfiguriert ist die Liege, insbesondere in Richtung ihrer Längsrichtung, zu bewegen, wobei die Rechnereinheit dazu konfiguriert ist, den Motor anzusteuern und ein Fahren der Liege in die Messposition zu veranlassen. Alle Merkmale und Vorteile des Verfahrens zur Bestimmung eines zu untersuchenden Bereichs, des Verfahrens zur Bestimmung eines Field-of-Views und des Verfahrens zum Trainieren eines künstlichen neuronalen Netzwerkes können analog auf das Positionierungssystem übertragen werden und umgekehrt. Vorzugsweise kann das Positionierungssystem Mittel zur Ausführung der Schritte des Verfahrens wie oben beschrieben umfassen.
  • Weitere Vorteile und Merkmale ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsformen des erfindungsgemäßen Gegenstands mit Bezug auf die beigefügten Figuren. Einzelne Merkmale der einzelnen Ausführungsform können dabei im Rahmen der Erfindung miteinander kombiniert werden. Einander entsprechende Komponenten sind jeweils mit den gleichen Bezugszeichen gekennzeichnet.
  • Es zeigen:
    • 1 ein Positionierungssystem gemäß einer ersten Ausführungsform,
    • 2 ein Positionierungssystem gemäß einer zweiten Ausführungsform,
    • 3 ein Verfahren gemäß einer Ausführungsform der Erfindung und
    • 4 eine schematische Darstellung eines beispielhaften neuronalen Netzwerks.
  • 1 zeigt ein Positionierungssystem gemäß einer ersten Ausführungsform der Erfindung. Das Positionierungssystem ist insbesondere Teil eines medizinischen Bildgebungssystems 1 welches in diesem Fall einen Magnetresonanztomographen (MRT) mit einer MRT-Röhre 20 umfasst. Ein Subjekt 3, insbesondere ein Patient, kann zum Zwecke einer Untersuchung auf einer Liege 2 platziert werden. Das Positionierungssystem umfasst in diesem Fall ein Markierobjekt 4 in Form eines Stabes welches zur Angabe der Position eines zu untersuchenden Bereichs verwendet werden kann. Der Bereich kann mittels einer 3D-Kamera 17 erfasst werden und durch die Rechnereinheit 8 berechnet werden. Zur Erzeugung einer Feedback-Markierung 6 - hier beispielhaft in Form eines Kreuzes - dient eine Projektionsvorrichtung 7, welche hier einen Laser 11 und einen flachen Parabolspiegel 13, der von einem Rahmen 14 gehalten wird, umfasst. Der flache Parabolspiegel 13 ist derart angeordnet, dass der Laser 11 bzw. der Ort der Strahlerzeugung an dem Laser in seinem Brennpunkt liegt. Der Laser ist in einer horizontalen Ebene, welche in etwa der Ebene des Rahmens 14 entspricht, mittels eines Motors 10 drehbar. Dies ist durch einen Pfeil verdeutlicht. Ein von dem Laser 11 erzeugter Laserstrahl wird nun in einem von der Drehung des Lasers 11 abhängigen Stelle auf den flachen Parabolspiegel 13 treffen und dort reflektiert werden. Dabei wird der reflektierte Laserstrahl 12, parallel zu einer Querrichtung der Liege 2 und weiterhin im Wesentlichen in der horizontalen Ebene verlaufend zurückgeworfen, bis er auf einen Flachspiegle 15 trifft. Der Flachspiegel 15 reflektiert den Laserstrahl dann im Wesentlichen senkrecht nach unten Richtung der Liege 2 bzw. dem Subjekt 3. Durch einen Strahlformer direkt vor dem Laser 11 wird dem Laserstrahl eine kreuzförmige Form gegeben, welche dann auf dem Subjekt als leuchtendes Kreuz 6 erscheint. In dieser Ausführungsform ist der Flachspiegel zudem mittels eines weiteren Motors 10 um eine zur Längsrichtung L der Liege parallele Achse um sich selbst drehbar (durch einen Pfeil angedeutet). Durch diese Drehung kann eine Verschiebung der Feedback-Markierung 6 in einer Querrichtung Q der Liege 2 erfolgen. Alternativ kann die Position auch über ein Touch-Display 9 angegeben werden, auf dem ein mit der Kamera 17 aufgenommenes Bild des Subjekts 3 dargestellt werden kann.
  • 2 zeigt ein Positionierungssystem gemäß einer zweiten Ausführungsform der Erfindung. Diese Ausführungsform unterscheidet sich von der ersten Ausführungsform insbesondere dadurch, dass die Projektionsvorrichtung 7 in diesem Fall ein Videoprojektor 16 ist welcher auf einer Linearführung 19 in Längsrichtung L bewegbar ist. Mit dem Videoprojektor 16 kann die Feedback-Markierung 6 auf dem Subjekt 3 erzeugt werden. Zusätzlich zu dem Videoprojektor 16 ist eine Kamera 17 auf der Linearführung 19 bewegbar. Die Bewegung erfolgt mit Hilfe eines Motors 10 und mittels einer an der Linearführung 19 angebrachten Antriebsspindel und/oder mittels an der Linearführung 19 angebrachten Zahnriemen (nicht gezeigt). Bei dem Motor 10 kann es sich vorteilhafterweise um einen MRkompatiblen Motor handeln, welcher insbesondere dazu ausgelegt ist, in einem Magnetfeld betrieben zu werden. Beispielsweise kann es sich um einen pneumatischen Motor, einen Ultraschall-Motor oder einen Hybrid-Antrieb handeln.
  • Gemäß einer weiteren Ausführungsform ist an der Seite der Liege 2 eine längliche Vertiefung (18) angeordnet, in der der Nutzer durch hineinstecken eines Fingers als Markierobjekt 4 eine z-Position angeben kann, was mittels entsprechender Sensorik erfasst werden kann. Zusätzlich oder alternativ kann die Position auch direkt am Subjekt 3 angegeben werden, was insbesondere durch die Kamera 17 erfasst werden kann.
  • 3 zeigt ein Verfahren zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt 3. Das Subjekt 3 kann insbesondere ein Patient sein. In einem ersten Schritt 101 wird der Bereich durch Positionieren eines vorbestimmten Markierobjekts 4 in Relation zu dem Subjekt 3 durch einen medizinisch-technischen Assistenten (MTA) angegeben. Das Markierobjekt 4 kann beispielsweise ein handgeführter Gegenstand, z.B. ein Stab, oder ein Marker, der auf dem Subjekt 3 abgelegt bzw. an dem Subjekt 3 befestigt wird, sein. Alternativ kann das Markierobjekt auch die Hand oder der Finger des MTA sein. Die Position des Markierobjekts 4 wird in einem nächsten Schritt 102 durch eine Erfassungseinrichtung 5 erfasst. Die Erfassungsvorrichtung 5 kann beispielsweise zumindest eine Kamera sein. Die Erfassung kann aber auch Ultraschall-basiert sein, wobei die Erfassungseinrichtung 5 einen oder mehrere Ultraschallempfänger umfasst. In einem folgenden Schritt 103 wird eine Feedback-Markierung 6 auf dem Subjekt 3 an der gegenwärtig erfassten Position angezeigt, insbesondere durch Projektion. Die Anzeige bzw. Projektion erfolgt dabei mit Hilfe einer Projektionsvorrichtung 7. Die Projektionsvorrichtung 7 kann insbesondere einen Laser 11, dessen Laserstrahl 12 vorzugsweise mit Hilfe von Spiegeln auf das Subjekt 3 gelenkt wird, oder einen Videoprojektor 16 umfassen. Eine Rechnereinheit 8 berechnet dann in dem folgenden Schritt 104 eine Messposition der Liege 2 auf Grundlage der erfassten Position, sodass in der Messposition der zu untersuchende Bereich in einem Erfassungsbereich des Bildgebungssystems angeordnet ist. Schließlich wird in einem letzten Schritt 105 die Liege 2 automatisch in die Messposition gefahren, wobei das Fahren insbesondere automatisch mit einem Motor passieren kann.
  • 4 zeigt eine schematische Darstellung eines beispielhaften neuronalen Netzwerks, wie es insbesondere für das Verfahren zur Bestimmung eine Field-of-View (FOV) verwendet werden kann. Das neuronale Netzwerk ist in dieser Darstellung aus Gründen der Übersicht nicht vollständig gezeigt. Es besteht aus einer Eingabeschicht 21. In diese Eingabeschicht werden die Eingabedaten 22, umfassend die Patientengröße, das Patientengewicht, das Patientengeschlecht, eine Lagerung des Patienten und die Position des zu untersuchenden Bereichs sowie optional eine Nummer der zu untersuchenden Körperregion (z.B. 1=Kopf, 2=Herz, 3=Knie etc.), eingegeben. Das neuronale Netz umfasst weiterhin mehrere verdeckte Schichten 23, welche auch zu Trainingszwecken einige Dropout-Schichten mit einer Dropout-Rate zwischen 3% und 5% umfassen. Die Ausgabeschicht 24 liefert schließlich die Ausgabedaten 25, umfassend Offset-Faktoren für verschiedene Raumrichtungen, insbesondere für die x- und y-Richtung, sowie die Größe des FOV in den drei Raumrichtungen. Die verschiedenen Schichten des neuronalen Netzwerks sind vollständig miteinander verbunden. Das neuronale Netzwerk kann vorzugsweise mit in vorherigen Messungen verwendeten Daten trainiert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102016203255 A1 [0021]

Claims (22)

  1. Verfahren zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt (3), insbesondere einem Patienten, auf einer bewegbaren Liege eines medizinischen Bildgebungssystems (1), umfassend die Schritte: a) Manuelles Angeben des Bereichs durch Positionieren eines vorbestimmten Markierobjekts (4) in Relation zu dem Subjekt (3) ; b) Erfassen der Position des Markierobjekts (4) durch eine Erfassungsvorrichtung (5); c) Projektion und/oder Anzeige einer Feedback-Markierung (6) durch eine Projektionsvorrichtung (7) an der gegenwärtig erfassten Position an dem Subjekt (3) und optional Anpassen der Position des Markierobjekts (4) und der gegenwärtig erfassten Position; d) Berechnen einer Messposition der Liege (2) auf Grundlage der erfassten Position mittels einer Rechnereinheit (8), wobei in der Messposition der zu untersuchende Bereich in einem Erfassungsbereich des Bildgebungssystems (1) angeordnet ist; e) Automatisches Fahren der Liege (2) in die Messposition mit einem Motor (10).
  2. Verfahren nach Anspruch 1, wobei die Feedback-Markierung (6) mit einem über der Liege (2) angeordneten Laser (11) erzeugt wird, wobei der Laserstrahl (12) mit Spiegeln derart umgeleitet wird, dass der Laserstrahl (12) an der erfassten Position zumindest im Wesentlichen vertikal auf das Objekt auftrifft.
  3. Verfahren nach Anspruch 2, wobei der Laser (11) einen Laserstrahl (12) mit einer in einer horizontalen Ebene liegenden Strahlrichtung erzeugt, wobei der erzeugte Laserstrahl (12) auf einen Parabolspiegel, insbesondere einen flachen Parabolspiegel (13), trifft, wobei der Brennpunkt des Parabolspiegels mit der Position des Lasers (11) übereinstimmt, sodass der Laserstrahl (12) in der horizontalen Ebene und senkrecht zu der Längsrichtung (L) der Liege (2) ein erstes Mal reflektiert wird, wobei der Laserstrahl (12) durch einen in der horizontalen Ebene vor dem Parabolspiegel angeordneten Flachspiegel (15) derart ein zweites Mal reflektiert wird, dass er senkrecht in Richtung der Liege (2) abgelenkt wird.
  4. Verfahren nach Anspruch 1, wobei die Feedback-Markierung (6) mit zumindest einer über der Liege (2) angeordneten und zu der Liege (2) hin ausgerichteten Lichtprojektionsvorrichtung, insbesondere einem Videoprojektor (16), erzeugt wird, wobei die Lichtprojektionsvorrichtung insbesondere eine Lichtquelle, eine Kollimationsoptik, eine Bildformungseinheit und eine Projektionsoptik umfasst.
  5. Verfahren nach Anspruch 4, wobei die zumindest eine Lichtprojektionsvorrichtung, insbesondere Videoprojektor (16), auf einer Längsachse parallel zu der Längsrichtung (L) der Liege (2) bewegbar ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Subjekt (3) mit einer Kamera, insbesondere 3D-Kamera (17), oder einer Kombination aus mehreren 2D- und/oder 3d-Kameras überwacht wird.
  7. Verfahren nach Anspruch 6, wobei mittels der 3D-Kamera (17) die Höhe des Subjekts (3) an der erfassten Position bestimmt wird, wobei mittels einer Rechnereinheit (8) eine Paralaxen-Korrektur der erzeugten Feedback-Markierung (6) ausgeführt wird.
  8. Verfahren nach einem der Ansprüche 6 bis 7, wobei die Kamera (17) auf einer linearen Achse, insbesondere parallel zu der Längsrichtung (L) der Liege (2), bewegt wird, wobei die Kamera verschiedene Ansichten des Subjekts (3) aufnimmt und zu einem Bild, insbesondere 3D-Bild, zusammensetzt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Markierobjekt (4) eine menschliche Hand, insbesondere ein Finger, eines Nutzers ist, wobei die Position der Hand, insbesondere des Fingers, mittels einer Kamera, insbesondere 3D-Kamera (17), ermittelt wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Markierobjekt (4) ein handgeführter Gegenstand ist, wobei der handgeführte Gegenstand einen aktiven, passiven oder autarken Positionssensor enthält.
  11. Verfahren nach einem der Ansprüche 9 bis 10, wobei Gesten mit der Hand, insbesondere dem Finger, und/oder dem handgeführten Gegenstand als Positionseingabe, zur Eingabe eines Field-of-Views einer mit dem Bildgebungsgerät durchzuführenden Messung oder zum Übermitteln von Steuerbefehlen, insbesondere mit Hilfe projizierter Bedienelemente, verwendet werden.
  12. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Markierobjekt (4) einen aktiven, passiven oder autarken Positionssensor enthält und zum Angeben des zu untersuchenden Bereichs auf den gewünschten Bereich gelegt und dort auf dem Subjekt (3) befestigt wird.
  13. Verfahren nach Anspruch 12, wobei eine Decke, insbesondere Wärmedecke, auf dem Subjekt (3) platziert wird oder ist, wobei das Markierobjekt (4) mittels einer Klebeschicht oder mittels einer Klettfläche an der Decke befestigt wird.
  14. Verfahren nach einem der vorhergehenden Ansprüche 10 bis 13, wobei der aktive, passive oder autarke Positionssensor • einen beleuchteten optischer Retroreflektor und/oder einen optischer Sender enthält, wobei zumindest eine 2D-Kamera und/oder 3D-Kamera (17) das Markierobjekt (4) erfasst, oder • einen Ultraschall- oder Infrarotsender enthält, wobei die Position des Positionssensors insbesondere per Trilateration und/oder Triangulation ermittelt wird, oder • einen Magnetfeldsensor enthält, wobei das Bildgebungsgerät ein Magnetresonanzgerät ist und die Position über die Stärke der magnetischen Flussdichte am Magnetsensor bestimmt wird, wobei die Stärke der magnetischen Flussdichte insbesondere von dem Abstand zu dem Hauptmagneten des Magnetresonanzgeräts abhängt.
  15. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine längliche Vertiefung (18) seitlich und in Längsrichtung (L) der Liege (2) angeordnet ist und mit einem Berührungs- oder Entfernungsmesser, insbesondere einem Laser- und/oder ein Ultraschallmesser, oder mit kapazitiven und/oder resistiven Sensorstreifen, für das Messen einer Entfernung in Längsrichtung (L) stellvertretend für die zu erfassende Position versehen ist, wobei das Markierobjekt (4) zur Bestimmung der Position in die Vertiefung (18) eingeführt wird und von dem Entfernungsmesser registriert wird.
  16. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Subjekt (3) und die Liege (2) mit einer 2D-Kamera und/oder 3D-Kamera (17) erfasst und aufgezeichnet wird und in einer virtuellen Umgebung, insbesondere auf einem Touch-Display (9), angezeigt wird, wobei das Markierobjekt (4) ein Finger ist, wobei der Finger den zu untersuchenden Bereich in der virtuellen Umgebung angibt.
  17. Verfahren nach Anspruch 16, wobei zunächst eine Gesamtansicht des Subjekts (3) angezeigt wird, wobei nach einer ersten Eingabe durch den Finger die Umgebung um die gegenwärtig erfasste Position in einer vergrößerten Darstellung angezeigt wird, wobei die Feedback-Markierung (6) sowohl an dem Subjekt (3) als auch in der virtuellen Umgebung, insbesondere auf dem Touch-Display (9), angezeigt wird, wobei der Nutzer die Position der Feedback-Markierung (6) prüft und, wenn notwendig, mittels einer zweiten Eingabe durch den Finger in der vergrößerten Darstellung korrigiert, um den zu untersuchenden Bereich genauer festzulegen.
  18. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Field-of-View für eine Messung durch das Bildgebungssystems (1) basierend auf der Position des Markierobjekts (4) und einem Offset in einer zur Längsrichtung (L) der Liege (2) senkrechten Schnittebene bestimmt wird, wobei der Offset basierend auf der dem jeweiligen Bereich zugeordneten Körperregion des Subjekts (3), insbesondere über Erfahrungswerte zum Offset und der Größe des Field-of-Views, bestimmt wird.
  19. Verfahren zur Bestimmung eines Field-of-Views für eine Messung durch das Bildgebungssystems (1) basierend auf einer Position eines Markierobjekts (4), welches einen zu untersuchenden Bereich an einem Subjekt (3) markiert, wobei die Position insbesondere nach einem der vorhergehenden Ansprüche bestimmt wurde, wobei die Bestimmung des Field-of-Views durch ein künstliches neuronales Netzwerk vollzogen wird, wobei das neuronale Netzwerk eine Eingabeschicht (21) zur Eingabe von Eingabedaten umfasst, welche die Position des Markierobjekts (4) und optional eine Größe, ein Gewicht ein Geschlecht und/oder eine Lagerung, insbesondere Lage und Richtung, des Subjekts (3) umfassen, wobei das neuronale Netzwerk mehrere verdeckte Schichten (23), insbesondere 5 bis 10 verdeckte Schichten (23) umfasst, wobei das neuronale Netzwerk eine Ausgabeschicht (24) umfasst, welche zumindest den Offset und die Größe des Field-of-Views ausgibt.
  20. Verfahren zum Trainieren eines künstlichen neuronalen Netzwerkes zur Bestimmung eines Field-of-Views für eine Messung durch das Bildgebungssystems (1) basierend auf einer Position eines Markierobjekts (4), welches einen zu untersuchenden Bereich an einem Subjekt (3) markiert, insbesondere gemäß Anspruch 19, wobei das neuronale Netzwerk eine Eingabeschicht (21), insbesondere umfassend 8 bis 20 Neuronen, mehrere, insbesondere 5 bis 10, verdeckte Schichten (23), insbesondere mit je 150 bis 1300 Neuronen, und eine Ausgabeschicht (24), insbesondere mit 5 bis 10 Neuronen, umfasst, wobei während des Trainings Dropout-Schichten, insbesondere mit einer Dropout-Rate von 3-5%, verwendet werden wobei das Verfahren die folgenden Schritte umfasst: a) Bereitstellen von Eingabe-Trainingsdaten, wobei die Eingabe-Trainingsdaten die Position des Markierobjekts (4) und insbesondere eine Größe, ein Gewicht ein Geschlecht, eine zu untersuchende Körperregion und/oder eine Lagerung, insbesondere Lage und Richtung, des Subjekts (3) umfassen; b) Bereitstellen von Ausgabe-Trainingsdaten, welche manuell durch einen Nutzer aus den Eingangs-Trainingsdaten spezifizierte Daten eines Offsets zur Position des Markierobjekts (4) und einer Größe des Field-of-Views umfassen; c) Trainieren des neuronalen Netzwerks mit den Eingabe-Trainingsdaten und Ausgabe-Trainingsdaten, insbesondere mittels Backpropagation; d) Ausgeben des trainierten neuronalen Netzwerks.
  21. Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt (3), insbesondere einem Patienten, auf einer bewegbaren Liege (2) eines medizinischen Bildgebungssystems (1), umfassend - eine Erfassungsvorrichtung (5) zum Erfassen der Position eines Markierobjekts (4) in Relation zu dem Subjekt (3), - eine Projektionsvorrichtung (7) zur Projektion und/oder Anzeige einer Feedback-Markierung (6) an der erfassten Position an dem Subjekt (3), - eine Rechnereinheit (8), wobei die Rechnereinheit (8) dazu konfiguriert ist, eine Messposition der Liege auf Grundlage der erfassten Position zu ermitteln, und - einen Motor (10), wobei der Motor (10) dazu konfiguriert ist die Liege, insbesondere in Richtung ihrer Längsrichtung (L), zu bewegen, wobei die Rechnereinheit (8) dazu konfiguriert ist, den Motor (10) anzusteuern und ein Fahren der Liege in die Messposition zu veranlassen.
  22. Positionierungssystem gemäß Anspruch 21, umfassend Mittel zur Ausführung der Schritte des Verfahrens nach einem der Ansprüche 1 bis 18.
DE102021202978.7A 2021-03-26 2021-03-26 Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt Pending DE102021202978A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021202978.7A DE102021202978A1 (de) 2021-03-26 2021-03-26 Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt
US17/704,839 US20220304634A1 (en) 2021-03-26 2022-03-25 Method and Positioning System for Determining a Region to be Examined in a Subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021202978.7A DE102021202978A1 (de) 2021-03-26 2021-03-26 Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt

Publications (1)

Publication Number Publication Date
DE102021202978A1 true DE102021202978A1 (de) 2022-09-29

Family

ID=83192417

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021202978.7A Pending DE102021202978A1 (de) 2021-03-26 2021-03-26 Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt

Country Status (2)

Country Link
US (1) US20220304634A1 (de)
DE (1) DE102021202978A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012209190A1 (de) 2012-05-31 2013-12-05 Siemens Aktiengesellschaft Verfahren zu einer Erfassung von Informationen wenigstens eines auf einer Patientenlagerungsvorrichtung angeordneten Objekts in einer medizinischen Bildgebungsvorrichtung sowie eine medizinische Bildgebungsvorrichtung zur Durchführung des Verfahrens
US20170209110A1 (en) 2015-06-04 2017-07-27 Siemens Healthcare Gmbh Apparatus and methods for a projection display device on x-ray imaging devices
DE102016203255A1 (de) 2016-02-29 2017-08-31 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Positionsbestimmung in einem Magnetresonanztomographen
US20180116518A1 (en) 2016-10-28 2018-05-03 Siemens Healthcare Gmbh Method and apparatus for provision of preparatory information for magnetic resonance imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012209190A1 (de) 2012-05-31 2013-12-05 Siemens Aktiengesellschaft Verfahren zu einer Erfassung von Informationen wenigstens eines auf einer Patientenlagerungsvorrichtung angeordneten Objekts in einer medizinischen Bildgebungsvorrichtung sowie eine medizinische Bildgebungsvorrichtung zur Durchführung des Verfahrens
US20170209110A1 (en) 2015-06-04 2017-07-27 Siemens Healthcare Gmbh Apparatus and methods for a projection display device on x-ray imaging devices
DE102016203255A1 (de) 2016-02-29 2017-08-31 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Positionsbestimmung in einem Magnetresonanztomographen
US20180116518A1 (en) 2016-10-28 2018-05-03 Siemens Healthcare Gmbh Method and apparatus for provision of preparatory information for magnetic resonance imaging

Also Published As

Publication number Publication date
US20220304634A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
US11273326B2 (en) Radiotherapy system and treatment support apparatus
CN109452947B (zh) 用于生成定位图像和对患者成像的方法、x射线成像系统
DE69531994T2 (de) System zur positionserfassung mittels einer an einem patientenkopf angebrachten referenzeinheit zur anwendung im medizinischen gebiet
CN105338897B (zh) 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
EP0488987B1 (de) Verfahren zur Darstellung beweglicher Körper
DE60032312T2 (de) System zur Bestimmung der räumlichen Position und/oder Lage von einem oder mehreren Objekten
US7534038B2 (en) Dental X-ray apparatus and method of positioning a patient therein
CN110352042A (zh) 用于对3d术中图像进行自动重新校准的装置和方法
DE102008025151A1 (de) Bilderzeugungsapparat und -methode zur Nuklearbildgebung
EP2850388B1 (de) Registrierverfahren und -vorrichtung für ein positionserfassungssystem
EP2883568A1 (de) System und Verfahren zum Ermitteln der Position von Objekten in einem Bestrahlungsraum für eine Strahlentherapie
CN102124320A (zh) 用于将多个图像拼接成全景图像的方法和系统
DE102010042278A1 (de) Operationsnavigationssystem mit strukturiertem Licht
WO2009083226A2 (de) Verfahren zur bewegungserfassung
EP2830526A1 (de) Medizinisches navigationssystem mit drahtlos verbundenem, berührungsempfindlichem bildschirm
DE102013219137A1 (de) Verfahren und Röntgenvorrichtung zur Relativpositionierung und gegenseitigen Ausrichtung einer Röntgenröhre zu einem mobilen Flachdetektor
DE102008009266A1 (de) Kalibrierung einer Instrumentenlokalisierungseinrichtung mit einer Bildgebungsvorrichtung
WO2012152264A1 (de) Vorrichtung und verfahren zur bestimmung der relativen position und orientierung von objekten
DE102021202978A1 (de) Verfahren und Positionierungssystem zur Bestimmung eines zu untersuchenden Bereichs an einem Subjekt
DE102008052976B4 (de) Trackingsystem
DE102020209323A1 (de) Verfahren, Bildgebungsvorrichtung und Computerprogrammprodukt für die Positionierung bildgebungsrelevanter Komponenten
DE102020207453A1 (de) Messvorrichtung
DE10109310A1 (de) Vorrichtung und Verfahren zur dreidimensionalen Navigation von Biopsie-Sonden
DE19526055A1 (de) Vorrichtung zur Ortung des Therapiefokus eines Therapiegerätes, insbesondere eines Lithotripters
EP1681028B1 (de) Video-tracking und -Registrierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE