DE102014219667B3 - Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs - Google Patents

Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs Download PDF

Info

Publication number
DE102014219667B3
DE102014219667B3 DE102014219667.1A DE102014219667A DE102014219667B3 DE 102014219667 B3 DE102014219667 B3 DE 102014219667B3 DE 102014219667 A DE102014219667 A DE 102014219667A DE 102014219667 B3 DE102014219667 B3 DE 102014219667B3
Authority
DE
Germany
Prior art keywords
area
image
patient
recording
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014219667.1A
Other languages
English (en)
Inventor
Christoph Braun
Johann Uebler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102014219667.1A priority Critical patent/DE102014219667B3/de
Priority to US14/867,291 priority patent/US9710141B2/en
Priority to CN201510639196.3A priority patent/CN105455830B/zh
Application granted granted Critical
Publication of DE102014219667B3 publication Critical patent/DE102014219667B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0407Supports, e.g. tables or beds, for the body or parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/545Control of apparatus or devices for radiation diagnosis involving automatic set-up of acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0487Motor-assisted positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

Die Erfindung basiert auf einem 3D-Bild eines auf einer Patientenliege gelagerten Patienten, wobei das 3D-Bild Tiefeninformationen über die Kontur des Patienten umfasst. Ein solches 3D-Bild wird empfangen und auf dem 3D-Bild basierende Bildinformationen werden auf einem Bildschirm dargestellt, wobei die Bildinformationen in eine graphische Benutzeroberfläche eingebettet sind. Die Erfinder haben erkannt, dass ein erster Aufnahmebereich dadurch besonders genau ausgewählt werden kann, dass die Auswahl auf der Eingabe einer ersten Startposition sowie einer ersten Endposition in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche basiert, wobei der erste Aufnahmebereich als graphisch hervorgehobene, erste Fläche dargestellt wird. Weiterhin wird eine erste Position des ersten Aufnahmebereichs relativ zu einer Aufnahmeeinheit basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des ersten Aufnahmebereiches bestimm. Dadurch wird die erste Position, insbesondere in vertikaler Richtung, schnell und besonders zuverlässig bestimmt.

Description

  • Die Tomographie ist ein bildgebendes Verfahren, bei dem Schnittbilder eines dreidimensionalen Aufnahmebereichs rekonstruiert werden. Ein Tomographiegerät verfügt über eine Aufnahmeeinheit mit einer zentralen Systemachse. Die Aufnahmeeinheit kann ringförmig oder tunnelförmig ausgebildet sein. Die Aufnahmeeinheit verfügt weiterhin über ein Isozentrum, in dem die Bedingungen für eine tomographische Aufnahme besonders vorteilhaft sind. Typischer Weise werden Systemachse und Isozentrum zumindest teilweise zur Deckung gebracht. Der Aufnahmebereich kann während der tomographischen Aufnahme entlang der Systemachse und damit durch das Isozentrum verfahren werden. Am Ende der tomographischen Aufnahme werden die Projektionen so verarbeitet, dass ein tomographisches Bild entsteht.
  • Im Falle der Röntgentomographie werden Röntgenprojektionen unter verschiedenen Projektionswinkeln aufgenommen. Dabei rotiert die Aufnahmeeinheit mit einer Strahlungsquelle sowie einem Strahlungsdetektor um die Systemachse sowie um den Aufnahmebereich. Der Schnittpunkt der von der Strahlungsquelle ausgesendeten Strahlen mit der Systemachse bildet das Isozentrum der Aufnahmeeinheit. Bei der Magnetresonanztomographie kann insbesondere der Strahlungsdetektor in Form von Lokalspulen außerhalb der Aufnahmeeinheit angeordnet sein. Weiterhin ist bei der Magnetresonanztomographie die Systemachse parallel zu einem Hauptmagnetfeld angeordnet, wobei sich das Isozentrum durch ein besonders homogenes Hauptmagnetfeld auszeichnet.
  • Für die Qualität eines solchen tomographischen Bildes ist entscheidend, wie der Aufnahmebereich des Objekts positioniert wird. Beispielsweise ist es regelmäßig wünschenswert den radiologischen Schwerpunkt des Aufnahmebereichs oder eines im Aufnahmebereich liegenden Untersuchungsbereichs im Isozentrum der Aufnahmeeinheit eines Tomographiegerätes zu positionieren. Dadurch erfolgt die Schwächung der Strahlung möglichst gleichmäßig. Eine genaue Positionierung ist insbesondere im klinischen Umfeld wichtig, wenn es sich bei dem Aufnahmebereich um eine Körperregion eines Patienten handelt. Denn eine wiederholte tomographische Aufnahme aufgrund einer Fehlpositionierung geht mit einer zusätzlichen Dosisbelastung sowie einer erheblichen Zeitverzögerung im Klinikalltag einher. Weiterhin ist eine möglichst hohe Qualität eines tomographischen Bildes in der klinischen Diagnostik unerlässlich.
  • Herkömmlicherweise erfolgt die Positionierung des Patienten, indem eine Bedienperson die Patientenliege manuell verfährt. Zur Positionierung benutzt die Bedienperson weiterhin eine optische Markierung, welche auf den Patienten projiziert wird, typischer Weise in Form einer Laserlinie. Besonders problematisch ist dabei die Positionierung des Patienten senkrecht zur Systemachse, insbesondere die Positionierung in vertikaler Richtung. Aufgrund des hohen Zeitdrucks im klinischen Alltag wird insbesondere die vertikale Position des Patienten oft nur unzureichend genau eingestellt.
  • Ein Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung ist aus der DE 10 2011 083 876 A1 bekannt. Ein Patientenpositionierungssystem zum Positionieren eines Patienten relativ zu einer Röntgenvorrichtung ist aus der US 2009/0285357 A1 bekannt.
  • Vor diesem Hintergrund ist es Aufgabe der vorliegenden Erfindung eine genaue Auswahl eines Aufnahmebereiches für eine schnelle und zuverlässige Positionierung eines Patienten zu ermöglichen.
  • Diese Aufgabe wird gelöst durch ein Verfahren nach Anspruch 1 sowie durch ein System nach Anspruch 16.
  • Nachstehend wird die erfindungsgemäße Lösung der Aufgabe in Bezug auf das beanspruchte System als auch in Bezug auf das beanspruchte Verfahren beschrieben. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen sind ebenso auch auf die anderen beanspruchten Gegenstände zu übertragen und umgekehrt. Mit anderen Worten können die gegenständlichen Ansprüche (die beispielsweise auf ein System gerichtet sind) auch mit den Merkmalen, die in Zusammenhang mit einem Verfahren beschrieben oder beansprucht sind, weitergebildet sein. Die entsprechenden funktionalen Merkmale des Verfahrens werden dabei durch entsprechende gegenständliche Module ausgebildet.
  • Die Erfindung basiert auf einem 3D-Bildes eines auf einer Patientenliege gelagerten Patienten, wobei das 3D-Bild Tiefeninformationen über die Kontur des Patienten umfasst. Ein solches 3D-Bild wird empfangen und auf dem 3D-Bild basierende Bildinformationen werden auf einem Bildschirm dargestellt, wobei die Bildinformationen in eine graphische Benutzeroberfläche eingebettet sind. Die Erfinder haben erkannt, dass ein erster Aufnahmebereich besonders genau ausgewählt werden kann, wenn die Auswahl auf der Eingabe einer ersten Startposition sowie einer ersten Endposition in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche basiert, wobei der erste Aufnahmebereich als graphisch hervorgehobene, erste Fläche dargestellt wird. Denn durch die Eingabe der ersten Startposition sowie der ersten Endposition kann der erste Aufnahmebereich beliebig ausgewählt werden. Auch erleichtert die erfindungsgemäße Darstellung der Fläche die Kontrolle der Auswahl. Weiterhin wird eine erste Position des ersten Aufnahmebereichs relativ zu einer Aufnahmeeinheit basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des ersten Aufnahmebereiches bestimmt. Dadurch wird die erste Position, insbesondere in vertikaler Richtung, schnell und besonders zuverlässig bestimmt. Eine so schnelle und zuverlässige Positionierung ist bei der herkömmlichen manuellen Positionierung regelmäßig nicht möglich.
  • Weiterhin wird ein zweiter Aufnahmebereich mit einer zweiten Startposition sowie mit einer zweiten Endposition in den Bildinformationen dargestellt, wobei der zweite Aufnahmebereich als graphisch hervorgehobene, zweite Fläche dargestellt wird. Dadurch können der erste Aufnahmebereich und der zweite Aufnahmebereich besonders einfach miteinander vergleichen werden, wodurch die Positionierung besonders schnell und zuverlässig erfolgen kann. Insbesondere kann der zweite Aufnahmebereich zur Korrektur des ersten Aufnahmebereichs herangezogen werden. Weiterhin werden anatomische Landmarken in dem 3D-Bild und/oder in den Bildinformationen durch Mustererkennung erkannt, wobei der zweite Aufnahmebereich basierend auf einem Lernalgorithmus definiert ist, wobei der Lernalgorithmus die erste Startposition relativ zu den anatomischen Landmarken auswertet. Ein solcher Lernalgorithmus ermöglicht es insbesondere besonders genaue Vorschläge für einen ersten Aufnahmebereich zu machen. Weiterhin kann der Lernalgorithmus die relative Position mehrerer Landmarken zueinander und/oder relativ zu der ersten Startposition auswerten. Auch kann der Lernalgorithmus die Körpermaße des Patienten wie beispielsweise die Körpergröße auswerten.
  • Gemäß einem weiteren Aspekt der Erfindung werden die erste Startposition sowie die erste Endposition unabhängig voneinander ausgewählt. Dadurch können der erste sowie der zweite Aufnahmebereich besonders flexibel ausgewählt werden. Insbesondere sind keine feste Länge des Aufnahmebereichs und keine feste Orientierung der Aufnahmerichtung vorgegeben.
  • Gemäß einem weiteren Aspekt der Erfindung wird eine Aufnahmerichtung für den ersten Aufnahmebereich in der Benutzeroberfläche symbolisch dargestellt, wobei die Aufnahmerichtung durch die relative Orientierung der ersten Startposition sowie der ersten Endposition definiert ist. Dadurch werden tomographische Aufnahmen mit der falschen Orientierung verhindert, so dass die Sicherheit bei der Planung von tomographischen Aufnahmen erhöht wird.
  • Gemäß einem weiteren Aspekt der Erfindung ist wenigstens ein Untersuchungsbereich in den Bildinformationen markiert. Dadurch kann die Auswahl eines Aufnahmebereiches vereinfacht werden. Die Markierung kann sowohl aktiv durch die Interaktion einer Bedienperson mit den Bildinformationen als auch durch Abrufen von gespeicherten Vorinformationen erfolgen. Beispielsweise kann die Markierung auf einem abgerufenen Aufnahmeprotokoll beruhen. Weiterhin kann die Markierung auf einem bereits ausgewählten Aufnahmebereich beruhen, beispielsweise um einen Untersuchungsbereich innerhalb eines Aufnahmebereiches zu markieren.
  • Gemäß einem weiteren Aspekt der Erfindung basiert das Bestimmen weiterhin auf einer Information über die Strahlungsabsorption des ersten Aufnahmebereichs, wobei die erste Position einen radiologischen Schwerpunkt des ersten Aufnahmebereichs oder des Untersuchungsbereiches in dem ersten Aufnahmebereich derart angibt, dass der radiologische Schwerpunkt im Isozentrum der Aufnahmeeinheit liegt. Dieser Aspekt bezieht sich auf einen besonders wichtigen Anwendungsfall der Erfindung. Denn wenn der radiologische Schwerpunkt im Isozentrum liegt, dann ist der resultierende Bildeindruck einer tomographischen Aufnahme besonders homogen. Der radiologische Schwerpunkt kann sich dabei insbesondere auf einen entlang der Systemachse gemittelten radiologischen Schwerpunkt beziehen.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst die Information über die Strahlungsabsorption ein skalierbares Patientenmodell mit verschiedenen Teilbereichen, wobei das Patientenmodell auf dem 3D-Bild und insbesondere den Tiefeninformationen basiert, wobei das Patientenmodell weiterhin auf generischen Strahlungsabsorptionseigenschaften der Teilbereiche basiert. Dadurch kann der radiologische Schwerpunkt besonders strahlungsarm, insbesondere ohne vorherige Aufnahme eines Röntgenbildes, präzise bestimmt werden.
  • Gemäß einem weiteren Aspekt der Erfindung gibt die erste Position einen geometrischen Schwerpunkt des ersten Aufnahmebereichs oder des Untersuchungsbereiches derart an, dass der geometrische Schwerpunkt im Isozentrum der Aufnahmeeinheit liegt. Dabei handelt es sich um einen weiteren besonders wichtigen Anwendungsfall. Der geometrische Schwerpunkt wird oft gewählt um bei einer tomographischen Aufnahme eine möglichst hohe Ortsauflösung zu erreichen.
  • Gemäß einem weiteren Aspekt der Erfindung wird der zweite Aufnahmebereich durch den Untersuchungsbereich definiert, wobei der Untersuchungsbereich durch Abrufen eines gespeicherten Aufnahmeprotokolls ausgewählt wird. Dadurch kann der Abgleich des ersten Aufnahmebereichs mit einem durch ein Untersuchungsprotokoll definierten zweiten Aufnahmebereich besonders schnell und zuverlässig verfolgen.
  • Gemäß einem weiteren Aspekt wird der zweite Aufnahmebereich durch den Untersuchungsbereich definiert, wobei der Untersuchungsbereich durch Eingabe einer Markierung in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche ausgewählt wird. Dadurch ist der Arbeitsfluss besonders flexibel gestaltet.
  • Gemäß einem weiteren Aspekt der Erfindung wird der zweite Aufnahmebereich durch den Untersuchungsbereich definiert, wobei der Untersuchungsbereich in dem 3D-Bild und/oder in den Bildinformationen durch Mustererkennung ausgewählt wird. Dadurch wird der Arbeitsablauf weiter beschleunigt und automatisiert.
  • Gemäß einem weiteren Aspekt stellt eine graphisch hervorgehobene dritte Fläche den Bereich dar, in dem sich der erste Aufnahmebereich und der zweite Aufnahmebereich überschneiden.
  • Gemäß einem weiteren Aspekt der Erfindung wird der erste Aufnahmebereich mit dem zweiten Aufnahmebereich verglichen, wobei basierend auf dem Vergleich ein Bestätigungssignal oder ein Warnhinweis in der Benutzeroberfläche dargestellt wird. Der Vergleich ermöglicht verschiedene Informationen über einen optimalen Aufnahmebereich zu berücksichtigen und gewährleistet damit eine besonders genaue Bestimmung der ersten Position.
  • Gemäß einem weiteren Aspekt der Erfindung wird der zweite Aufnahmebereich basierend auf der ersten Startposition dargestellt, wobei die erste Startposition und die zweite Startposition übereinstimmen. Wird also zuerst nur eine erste Startposition eingegeben, so wird eine zweite Endposition von dem System vorgeschlagen. In diesem Fall bilden die erste bzw. die zweite Startposition sowie die zweite Endposition (und damit der zweite Aufnahmebereich) einen Vorschlag für den ersten Aufnahmebereich.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst die Eingabe der ersten Endposition das Bestätigen oder Verschieben der zweiten Endposition, so dass es sich bei der ersten Endposition um die bestätigte oder verschobene zweite Endposition handelt. Der Vorschlag für den ersten Aufnahmebereich kann also modifiziert und dann bestätigt oder ohne Modifikation direkt bestätigt werden.
  • Gemäß einem weiteren Aspekt der Erfindung werden die Bildinformationen auf einem berührungssensitiven Bildschirm dargestellt, wobei die Auswahl durch eine Berührung des berührungssensitiven Bildschirms erfolgt. Durch die intuitive Handhabung eines berührungssensitiven Bildschirms wird der Arbeitsfluss weiter beschleunigt.
  • Weiterhin bezieht sich die Erfindung auf ein System, umfassend:
    • – eine Schnittstelle zum Empfangen eines 3D-Bildes eines auf der Patientenliege gelagerten Patienten, wobei das 3D-Bild Tiefeninformationen über die Kontur des Patienten umfasst,
    • – einen Bildschirm zum Darstellen von auf dem 3D-Bild basierenden Bildinformationen, wobei die Bildinformationen in eine graphische Benutzeroberfläche eingebettet sind,
    • – eine Eingabeeinheit zum Auswählen eines ersten Aufnahmebereichs basierend auf der Eingabe einer ersten Startposition sowie einer ersten Endposition in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche, wobei der erste Aufnahmebereich als graphisch hervorgehobene, erste Fläche dargestellt wird, wobei ein zweiter Aufnahmebereich (A-2) mit einer zweiten Startposition (S-2) sowie einer zweiten Endposition (E-2) in den Bildinformationen dargestellt wird, wobei der zweite Aufnahmebereich (A-2) als graphisch hervorgehobene, zweite Fläche (F-2) dargestellt wird, wobei anatomische Landmarken (27) in dem 3D-Bild und/oder in den Bildinformationen durch Mustererkennung erkannt werden, und wobei der zweite Aufnahmebereich (A-2) basierend auf einem Lernalgorithmus definiert ist, wobei der Lernalgorithmus die erste Startposition (A-1) relativ zu den anatomischen Landmarken (27) auswertet,
    • – eine Recheneinheit zum Bestimmen einer ersten Position des ersten Aufnahmebereichs relativ zu einer Aufnahmeeinheit basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des ersten Aufnahmebereiches.
  • Gemäß einer Variante der Erfindung umfasst das System weiterhin eine 3D-Kamera, wobei die 3D-Kamera auf die Patientenliege ausgerichtet ist. Insbesondere kann die 3D-Kamera an dem Tomographiegerät oder zentral über der Patientenliege, beispielsweise an einer Gebäudedecke, befestigt sein.
  • Gemäß einer weiteren Variante sind der Bildschirm und die Eingabeeinheit zusammen in Form eines berührungsempfindlichen Bildschirms ausgebildet.
  • Außerdem können das hier beschriebene System und seine Varianten erfindungsgemäß dazu ausgelegt sein, verschiedene zuvor beschriebene Aspekte des erfindungsgemäßen Verfahrens auszuführen.
  • Die Erfindung betrifft weiterhin ein System mit einem Tomographiegerät, welches weiterhin umfasst:
    • – eine Aufnahmeeinheit mit einer zentralen Systemachse,
    • – eine entlang der Systemachse bewegbare Patientenliege,
    • – eine Strahlungsquelle und einen mit der Strahlungsquelle zusammenwirkenden Strahlungsdetektor,
    • – eine Steuerungseinheit zum automatischen Positionieren des ersten Aufnahmebereichs in der ersten Position durch Bewegen der Patientenliege relativ zu der Aufnahmeeinheit,
    wobei das Tomographiegerät zu einer ersten tomographischen Aufnahme des ersten Aufnahmebereichs in der ersten Position ausgelegt ist.
  • Bei einem Tomographiegerät kann es sich um einen Magnetresonanztomographie-Gerät handeln. In diesem Fall umfasst die Strahlung ein hochfrequentes Wechselfeld im Radiofrequenzbereich. Bei der Strahlungsquelle handelt es sich in diesem Fall um wenigstens eine Spule zur Erzeugung des hochfrequenten Wechselfeldes. Bei dem Strahlungsdetektor handelt es sich bei der Magnetresonanztomographie um wenigstens eine Spule zur Detektion hochfrequenter Strahlung.
  • Weiterhin kann es sich bei dem Tomographiegerät um ein Röntgengerät handeln, welches zur Aufnahme einer Vielzahl von Röntgenprojektionen aus unterschiedlichen Projektionswinkeln ausgelegt ist. Beispielsweise handelt es sich bei einem solchen Tomographiegerät um einen Computertomographie-Gerät mit einem ringförmigen Drehrahmen oder um ein C-Bogen-Röntgengerät. Die Aufnahmen können während einer, insbesondere kontinuierlichen, Rotationsbewegung einer Aufnahmeeinheit mit einer Röntgenquelle und einem mit der Röntgenquelle zusammenwirkenden Röntgendetektor erzeugt werden. Die Röntgenquelle emittiert dabei Röntgenstrahlung innerhalb eines fächer- oder kegelförmigen Bereiches. Bei der Röntgenquelle kann es sich insbesondere um eine Röntgenröhre mit Drehanode handeln. Bei dem Röntgendetektor handelt es sich beispielsweise um einen Zeilendetektor mit mehreren Zeilen. Der Röntgendetektor kann aber auch als Flachdetektor ausgebildet sein.
  • Mit einem Tomographiegerät kann sowohl ein tomographisches Bild als auch ein Topogramm aufgenommen werden. Bei einem Topogramm handelt es sich um eine Übersichtsaufnahme eines Patienten, welches insbesondere unter nur einem Projektionswinkel von der Aufnahmeeinheit aufgenommen werden kann.
  • Das bildgebende System kann zur Rekonstruktion eines tomographischen Bildes über eine Rekonstruktionseinheit verfügen. Weiterhin kann das bildgebende System über eine Recheneinheit verfügen. Sowohl die Recheneinheit als auch die Rekonstruktionseinheit kann sowohl in Form von Hard- als auch von Software ausgebildet sein. Beispielsweise ist die Recheneinheit oder die Rekonstruktionseinheit als ein sogenanntes FPGA (Akronym für das englischsprachige ”Field Programmable Gate Array”) ausgebildet oder umfasst eine arithmetische Logikeinheit.
  • Ein 3D-Bild umfasst ein räumlich zweidimensionales Bild, kurz 2D-Bild, wobei den einzelnen Bildpunkten des 2D-Bildes Tiefeninformationen zugeordnet sind. Diese Tiefeninformationen stellen also Informationen in einer dritten räumlichen Dimension dar. Eine 3D-Kamera ist dazu geeignet solche 3D-Bilder aufzunehmen. Die 3D-Kamera ist zur Detektion elektromagnetischer Strahlung ausgelegt, insbesondere zur Detektion elektromagnetischer Strahlung in einem im Vergleich zu Röntgenstrahlung niederfrequenten Spektralbereich, beispielsweise im sichtbaren oder infraroten Spektralbereich. Die 3D-Kamera ist beispielsweise als Stereokamera oder als Laufzeitmesssystem (im Englischen als „time-of-flight camera” bekannt) ausgebildet. Die 3D-Kamera kann auch mittels strukturierter Beleuchtung dazu ausgelegt sein ein 3D-Bild aufzunehmen.
  • Zum Empfangen des 3D-Bildes wird eine Schnittstelle benutzt. Bei der Schnittstelle handelt es sich um allgemein bekannte Hard- oder Software-Schnittstellen, z. B. um die Hardware-Schnittstellen PCI-Bus, USB oder Firewire.
  • Auf einem 3D-Bild eines Patienten basierende Bildinformationen können auf einem Bildschirm dargestellt werden. Die Darstellung kann derart erfolgen, dass der Patient unter einer vorgebbaren Perspektive dargestellt wird, beispielsweise frontal oder seitlich. Eine solche Perspektive kann insbesondere auf der Transformation des 3D-Bildes beruhen. Weiterhin können die auf dem 3D-Bild basierenden Bildinformationen nicht direkt den Patienten darstellen, sondern einen an den Patienten angepassten Avatar. Bei einem Avatar handelt es sich um ein skalierbares Patientenmodell. Beispielsweise kann es sich bei dem Patientenmodell um die Kontur einer menschlichen Darstellung oder um die Kontur einzelner Körperteile eines Menschen handeln. Beispielsweise können Körpereigenschaften wie die Größe, der Durchmesser des Brustkorbs oder die Schulterbreite angepasst werden, indem das Patientenmodell skaliert wird. Solche Körpereigenschaften können durch Methoden der Bildverarbeitung, insbesondere automatisch, aus dem 3D-Bild ermittelt werden.
  • Die Auswahl eines Aufnahmebereiches kann durch separate Eingabe einer Startposition sowie einer Endposition in den dargestellten Bildinformationen erfolgen. Der Aufnahmebereich füllt den Bereich zwischen Startposition und Endposition und ist damit durch die Startposition und die Endposition begrenzt. Die Startposition sowie die Endposition können jeweils symbolisch, insbesondere durch eine Linie, dargestellt werden. Die Auswahl kann aber auch erfolgen, indem eine Fläche in den Bildinformationen platziert wird, wobei die Fläche zu dem Aufnahmebereich korrespondiert. Ein Aufnahmebereich kann durch einen von der Umgebung abweichenden Farbwert und/oder Helligkeitswert hervorgehoben werden.
  • Bei dem Bildschirm kann es sich beispielsweise um einen LCD-, Plasma- oder OLED-Bildschirm handeln. Es kann sich weiterhin um einen berührungsempfindlichen Bildschirm handelt, welcher auch als Eingabeeinheit ausgebildet ist. Ein solcher berührungsempfindlicher Bildschirm kann in das Tomographiegerät, beispielsweise in eine Gantry, integriert sein oder als Teil eines mobilen Geräts ausgebildet sein. Die Eingabeeinheit kann alternativ als Tastatur, Maus, Mikrofon zur Spracheingabe oder anderweitig ausgebildet sein.
  • Das Bestimmen einer Position basiert erfindungsgemäß auf Tiefeninformationen sowie einem ausgewählten Aufnahmebereich. Die Position betrifft insbesondere die Ebene senkrecht zur Systemachse der Aufnahmeeinheit. In bestimmten Ausführungsformen der Erfindung ist mit der Position die vertikale Position gemeint. Das Bestimmen der Position kann insbesondere auf einem aus dem 3D-Bild berechneten Volumen des Aufnahmebereichs und/oder einer aus dem 3D-Bild berechnete Oberfläche des Aufnahmebereichs basieren. Weiterhin kann die Position basierend auf einer Dichteverteilung oder einer Verteilung von Strahlungsabsorptionseigenschaften innerhalb eines solchen Volumens bzw. innerhalb einer solchen Oberfläche bestimmt werden. Es können mehrere Positionen für Teilbereiche des Aufnahmebereiches berechnet werden, insbesondere kann es sich bei den Teilbereichen um Schichten entlang der Systemachse handeln. Eine Position im Isozentrum kann sich also auf eine Position für eine im Strahlengang befindliche Schicht des Patienten beziehen. Weiterhin kann eine bestimmte Position in den Bildinformationen angezeigt werden, beispielsweise als Punkt, als Fläche oder als Linie.
  • Zum Positionieren wird eine Steuerungseinheit verwendet. Die Steuerungseinheit kann sowohl in Form von Hard- als auch von Software ausgebildet sein. Insbesondere kann die Steuerungseinheit Mittel zur Berechnung sowie zum Senden eines Steuerungssignals aufweisen, so dass die Steuerungseinheit die Steuerung der Bewegung der Patientenliege mit dem Steuerungssignal bewirkt. Durch eine entsprechende Kalibrierung lässt sich sicherstellen, dass der Steuerungseinheit die Beziehung zwischen dem externen Koordinatensystem, in dem sich ein Aufnahmebereich befindet, und dem internen Koordinatensystem der 3D-Kamera (und einem 3D-Bild) bekannt ist. Die Steuerungseinheit erzeugt das Steuerungssignal derart, dass der Aufnahmebereich an einer bestimmten Position im externen Koordinatensystem erscheint. Die Recheneinheit oder eine andere Einheit des bildgebenden Systems ist also dazu ausgelegt durch eine Koordinatentransformation die Position in einem 3D-Bild in eine Position in dem externen Koordinatensystem umzurechnen.
  • Für das automatische Positionieren wird eine bestimmte Position von der Recheneinheit an eine Steuerungseinheit übermittelt, beispielsweise mittels eines Positionssignals. ”Automatisch” bedeutet im Kontext der vorliegenden Anmeldung, dass der jeweilige Schritt mittels einer Rechen- oder Steuereinheit selbstständig abläuft, und für den jeweiligen Schritt im Wesentlichen keine Interaktion einer Bedienperson mit dem bildgebenden System mit notwendig ist. In anderen Worten wird die Rechentätigkeit für Schritte wie ein automatisches Bestimmen oder ein automatisches Positionieren durch die Rechen- oder Steuereinheit ausgeführt. Die Bedienperson muss höchstens berechneten Ergebnisse bestätigen oder Zwischenschritte ausführen. In weiteren Ausführungsformen der Erfindung mit „vollautomatisch” durchgeführten Schritten ist zur Durchführung dieser Schritte gar keine Interaktion einer Bedienperson notwendig. Unabhängig davon, ob die einzelnen Schritte „automatisch” oder „vollautomatisch” ausgeführt werden, kann das erfindungsgemäße Verfahren Bestandteil eines Arbeitsablaufes sein, der zusätzlich eine Interaktion von einer Bedienperson erfordert. Die Interaktion mit der Bedienperson kann darin bestehen, dass diese ein Aufnahmeprotokoll und/oder eine klinische Fragestellung manuell auswählt, beispielsweise aus einem mittels eines Bildschirms präsentierten Menü.
  • Die Recheneinheit sowie die Steuerungseinheit können weiterhin dazu ausgelegt sein gewisse Verfahrensschritte durchzuführen, indem sie dazu programmiert sind diese Verfahrensschritte durchzuführen. Insbesondere können die Recheneinheit und die Steuerungseinheit jeweils einen Mikroprozessor aufweisen, der dazu programmiert ist die jeweiligen Verfahrensschritte durchzuführen.
  • Bei dem geometrischen Schwerpunkt handelt es sich um einen Punkt bzw. eine Achse, welche die geometrische Mitte des Aufnahmebereichs angibt. Die geometrische Mitte kann insbesondere basierend auf einer homogenen Dichteverteilung eines berechneten Volumens oder einer berechneten Oberfläche des Patienten bestimmt werden. Bei dem radiologischen Schwerpunkt handelt es sich um einen Punkt bzw. eine Achse, welche die Mitte der Schwächungsverteilung des Aufnahmebereiches angibt. Der radiologische Schwerpunkt kann insbesondere basierend auf einer inhomogenen Dichteverteilung oder einer inhomogenen Verteilung von Strahlungsabsorptionseigenschaften eines berechneten Volumens oder einer berechneten Oberfläche des Patienten bestimmt werden. Strahlungsabsorption umfasst im Sinne der vorliegenden Anmeldung auch Röntgenstreuung. Insbesondere kann eine bestimmte Dichte oder eine bestimmte Strahlungsabsorptionseigenschaft einem bestimmten Körperteil oder Organ des Patienten zugeordnet sein. Ein skalierbares Patientenmodell kann eine solche Zuordnung umfassen.
  • Der radiologische bzw. der geometrische Schwerpunkt kann sich dabei insbesondere auf einen entlang der Systemachse gemittelten radiologischen Schwerpunkt beziehen. Dabei kann gemäß einer Variante zuerst eine Eigenschaft, beispielsweise eine Dichteverteilung oder eine Strahlungsabsorptionseigenschaft, eines Aufnahmebereiches entlang der Systemachse gemittelt werden, um dann den entsprechenden Schwerpunkt zu bestimmen. In einer weiteren Variante wird ein Aufnahmebereich entlang der Systemachse in Teilbereiche aufgeteilt, und für jeden dieser Teilbereiche werden einzelne Schwerpunkte bestimmt, welche dann gemittelt werden.
  • Im Folgenden wird die Erfindung anhand der in den Figuren dargestellten Ausführungsbeispiele näher beschrieben und erläutert.
  • Es zeigen:
  • 1 ein System zur Auswahl eines Aufnahmebereichs,
  • 2 die Gantry eines Tomographiegeräts mit einem berührungsempfindlichen Bildschirm,
  • 3 eine Bildschirmansicht mit einem ersten Aufnahmebereich in Aufsicht,
  • 4 eine Bildschirmansicht mit einem ersten sowie einem zweiten Aufnahmebereich in Aufsicht,
  • 5 eine Bildschirmansicht mit einem ersten sowie einem zweiten Aufnahmebereich in Seitsicht,
  • 6 ein skalierbares Patientenmodell,
  • 7 ein Flussdiagram für ein Verfahren zur automatischen Patientenpositionierung.
  • 1 zeigt ein System zur Auswahl eines Aufnahmebereichs am Beispiel eines Computertomographie-Gerätes. Das hier gezeigte Computertomographie-Gerät verfügt über eine Aufnahmeeinheit 17, umfassend eine Strahlungsquelle 8 in Form einer Röntgenquelle sowie einen Strahlungsdetektor 9 in Form eines Röntgendetektors. Die Aufnahmeeinheit 17 rotiert während der Aufnahme von Projektionen um eine Rotationsachse 5, und die Röntgenquelle emittiert während der Aufnahme Strahlen 2 in Form von Röntgenstrahlen. Bei der Röntgenquelle handelt es sich in dem hier gezeigten Beispiel um eine Röntgenröhre. Bei dem Röntgendetektor handelt es sich in dem hier gezeigten Beispiel um einen Zeilendetektor mit mehreren Zeilen.
  • In dem hier gezeigten Beispiel liegt ein Patient 3 bei der Aufnahme von Projektionen auf einer Patientenliege 6. Die Patientenliege 6 ist so mit einem Liegensockel 4 verbunden, dass er die Patientenliege 6 mit dem Patienten 3 trägt. Die Patientenliege 6 ist dazu ausgelegt den Patienten 3 entlang einer Aufnahmerichtung durch die Öffnung 10 der Aufnahmeeinheit 17 zu bewegen. Die Aufnahmerichtung ist in der Regel durch die Systemachse 5 gegeben, um die die Aufnahmeeinheit 17 bei der Aufnahme von Röntgenprojektionen rotiert. Bei einer Spiral-Aufnahme wird die Patientenliege 6 kontinuierlich durch die Öffnung 10 bewegt, während die Aufnahmeeinheit 17 um den Patienten 3 rotiert und Röntgenprojektionen aufnimmt. Damit beschreiben die Röntgenstrahlen auf der Oberfläche des Patienten 3 eine Spirale.
  • Weiterhin weist das hier gezeigte System zur Auswahl eines Aufnahmebereichs eine 3D-Kamera 18 auf, welche mit einer Schnittstelle 16 zum Empfangen REC eines durch die 3D-Kamera 18 aufgenommenen 3D-Bildes ausgelegt ist. In dem hier gezeigten Beispiel ist die Schnittstelle 16 als Teil des Computers 12 ausgebildet. Der Computer 12 ist mit einer Ausgabeeinheit in Form eines Bildschirms 11 sowie einer Eingabeeinheit 7 verbunden. Der Bildschirm 11 ist zum Darstellen SCR verschiedener Bildinformationen basierend auf dem 3D-Bild ausgelegt. Insbesondere kann ein fotographisches Abbild 23 des Patienten 3 oder ein an den Patienten 3 angepassten Patientenmodell dargestellt werden. Die Eingabeeinheit 7 ist zum Auswahlen SEL wenigstens eines ersten Aufnahmebereiches A-1 ausgelegt. Bei der Eingabeeinheit 7 handelt es sich beispielsweise um eine Tastatur, eine Maus, einen sogenannten „Touch-Screen” oder auch um ein Mikrofon zur Spracheingabe.
  • Das Bestimmen CAL wenigstens einer ersten Position P-1 erfolgt mittels einer Recheneinheit 15. Die Recheneinheit 15 kann ein computerlesbares Medium 13 umfassen oder mit diesem zusammenwirken. In dem hier gezeigten Beispiel ist eine Steuerungseinheit 19 in den Computer 12 integriert und sendet ein Steuerungssignal 20 zum Positionieren POS der Patientenliege 6. Das Steuerungssignal 20 zum Positionieren wird beispielsweise an einen Motor zum Bewegen der Patientenliege 6 gesendet. Die Bewegung kann sowohl entlang der Systemachse 5, also horizontal, als auch senkrecht zur Systemachse 5, insbesondere vertikal, erfolgen. Die Bewegungen der Patientenliege 6 in unterschiedliche Raumrichtungen können dabei unabhängig voneinander erfolgen.
  • Das Tomographiegerät kann auf abrufbare gespeicherte Aufnahmeprotokolle zugreifen. Insbesondere kann das Tomographiegerät über einen eigenen Arbeitsspeicher verfügen, in den ein Aufnahmeprotokoll geladen werden kann. In bestimmen Ausführungsformen der Erfindung kann das Aufnahmeprotokoll zum Auswählen SEL des ersten Aufnahmebereiches A-1 oder des zweiten Aufnahmebereiches A-2, zum Auswählen SEL eines Untersuchungsbereiches 21 und/oder zum Bestimmen CAL der ersten Position P-1 verwendet werden. Nach oder während einer ersten tomographischen Aufnahme TOM-1 kann ein tomographisches Bild basierend auf den aufgenommenen Projektionen rekonstruiert werden. Zur Rekonstruktion eines tomographisches Bildes verfügt das hier gezeigte System weiterhin über eine Rekonstruktionseinheit 14, ausgelegt ein tomographisches Bild zu rekonstruieren.
  • 2 zeigt die Gantry 1 eines Tomographiegeräts mit einem berührungsempfindlichen Bildschirm. Dabei ist die 3D-Kamera 18 auf die Patientenliege 6 ausgerichtet. Der berührungsempfindliche Bildschirm 11 kann weiterhin lösbar mit der Gantry 1 verbunden sein. Eine solche Verbindung kann durch eine Halterung für einen mobilen berührungsempfindlichen Bildschirm 11, auch als „Touch-Pad” bekannt, gegeben sein. Diese Halterung kann insbesondere schwenkbar sein. Weiterhin sind schematisch die Bildinformationen sowie ein ausgewählter erster Aufnahmebereich A-1 dargestellt. Dieser erste Aufnahmebereich A-1 kann durch eine Interaktion einer Bedienperson mit dem berührungsempfindlichen Bildschirm 11 modifiziert werden. Insbesondere kann der ganze erste Aufnahmebereich A-1 zusammen mit der ersten Startposition S-1 und der ersten Endposition E-1 verschoben werden. Alternativ können auch die erste Startposition S-1 und die erste Endposition E-1 separat voneinander verschoben werden.
  • 3 zeigt eine Bildschirmansicht mit einem ersten Aufnahmebereich. Die hier dargestellte Bildinformation ist in eine graphische Benutzeroberfläche eingebettet und umfasst ein Abbild 23 des Patienten 3. In dem hier gezeigten Beispiel ist der erste Aufnahmebereich A-1 durch eine von der Umgebung hervorgehobene, erste Fläche F-1 dargestellt. Er wird begrenzt durch eine erste Startposition S-1, symbolisch durch eine durchgezogene Linie dargestellt, sowie durch eine erste Endposition E-1, symbolisch durch eine gestrichelte Linie dargestellt. Weiterhin wird die Aufnahmerichtung symbolisch angezeigt, in dem hier gezeigten Beispiel durch Pfeile 22. Basierend auf der Auswahl des ersten Aufnahmebereiches A-1 kann nun automatisch eine erste Position P-1 bestimmt werden. Weiterhin ist ein Umschaltsymbol 24 dargestellt. Durch eine Interaktion einer Bedienperson mit dem Umschaltsymbol 24 kann die Aufnahmerichtung für den ersten Aufnahmebereich A-1 geändert werden. Bei einer Änderung der Aufnahmerichtung wird in diesem Fall die erste Startposition S-1 zur ersten Endposition E-1 und die erste Endposition zur ersten Startposition S-1. Die Interaktion erfolgt durch die Eingabeeinheit 7, also beispielsweise durch eine Berührung eines berührungsempfindlichen Bildschirms. Weiterhin kann das Umschalten der Aufnahmerichtung durch Bewegen der ersten Startposition S-1 relativ zur ersten Endposition E-1 erfolgen. Dabei bewegt sich die erste Startposition S-1 entlang der Systemachse 5 über die Endposition E-1 hinweg.
  • 4 zeigt eine Bildschirmansicht mit einem ersten sowie einem zweiten Aufnahmebereich. In dem hier gezeigten Beispiel umfassen sowohl der erste Aufnahmebereich A-1 als auch der zweite Aufnahmebereich A-2 den Thorax eines Patienten 3. Der erste Aufnahmebereich A-1 ist als erste Fläche F-1 und der zweite Aufnahmebereich A-2 als zweite Fläche F-2 dargestellt. Der Bereich, in dem sich der erste Aufnahmebereich A-1 und der zweite Aufnahmebereich A-2 überschneiden, wird durch eine dritte Fläche F-3 dargestellt. Durch die Darstellung der dritten Fläche F-3 kann der Benutzer unmittelbar erkennen, wie gut der erste Aufnahmebereich A-1 und der zweite Aufnahmebereich A-2 übereinstimmen.
  • In dem hier gezeigten Beispiel ist der erste Aufnahmebereich A-1 durch die Eingabe einer ersten Startposition S-1 sowie durch die Eingabe einer ersten Endposition E-1 durch die graphische Benutzeroberfläche ausgewählt worden. Hingegen ist der zweite Aufnahmebereich A-2 mit der zweiten Startposition S-2 und der zweiten Endposition E-2 in diesem Fall durch Abrufen eines gespeicherten Aufnahmeprotokolls ausgewählt worden. Das abgerufene Aufnahmeprotokoll betrifft die tomographische Aufnahme einer Lunge als Untersuchungsbereich 21. Ein solches Aufnahmeprotokoll umfasst Informationen über einen Aufnahmebereich für eine tomographische Aufnahme einer Lunge. Solche Informationen betreffen insbesondere die Position und Größe des Aufnahmebereichs relativ zum Patienten 3. Die genaue und Größe des Aufnahmebereichs kann mittels Landmarken 27 und/oder einem skalierbaren Patientenmodell ermittelt werden. Daher ist der zweite Aufnahmebereich A-2 in dem hier gezeigten Beispiel durch den Untersuchungsbereich 21 definiert.
  • Weiterhin ist in den Bildinformationen der ausgewählte Untersuchungsbereich 21 dargestellt, wobei es sich um die Lunge des Patienten 3 handelt. Die Auswahl des Untersuchungsbereiches 21 erfolgt einer weiteren Ausführungsform durch eine Markierung. Eine solche Markierung kann auf der Auswahl eines Aufnahmeprotokolls basieren. Auch kann die Markierung auf einer Eingabe einer Bedienperson in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche basieren. Beispielsweise kann die Eingabe einer Markierung mittels eines berührungsempfindlichen Bildschirms durch Drücken eines Punktes oder Berühren eines bestimmten Bereiches in den dargestellten Bildinformationen erfolgen. Weiterhin kann die Markierung durch das Platzieren eines Symbols in den dargestellten Bildinformationen erfolgen. In dem hier gezeigten Beispiel handelt es sich bei dem Symbol um die Markierungsfläche 25.
  • In einer Ausführungsform der Erfindung dient die Markierung der Auswahl des ersten Aufnahmebereiches A-1 und/oder des zweiten Aufnahmebereiches A-2. Beispielsweise kann um eine Markierung herum automatisch ein Aufnahmebereich ausgewählt werden. Weiterhin kann eine solche Auswahl abhängig sein von der Position der Markierung. In einer weiteren Ausführungsform der Erfindung ist das System dazu ausgelegt die Position der Markierung einem Körperbereich des Patienten 3 zuzuordnen und einen entsprechenden Aufnahmebereich in den Bildinformationen darzustellen. In dem hier gezeigten Beispiel ist der zweite Aufnahmebereich A-2 basierend auf der Position der Markierung in Form einer Markierungsfläche 25 dargestellt. Insbesondere kann die Zuordnung und Darstellung auf der Erkennung von anatomischen Landmarken 27 in dem 3D-Bild und/oder in den Bildinformationen basieren. In einer weiteren Ausführungsform wird die Position der Markierung in Beziehung mit erkannten anatomischen Landmarken 27 gesetzt, und aus dieser Beziehung wird ein Aufnahmebereich abgeleitet und dargestellt. In einer weiteren Ausführungsform erfolgt die Markierung durch die Auswahl des ersten Aufnahmebereiches A-1, so dass der erste Aufnahmebereich A-1 den markierten Bereich angibt. Weiterhin kann die Eingabe der Markierung einen Bestätigungsschritt oder einen Korrekturschritt umfassen. Die Bestätigung oder Korrektur kann sich sowohl auf eine von dem System erkannten Eingabe als auch auf einen dargestellten Aufnahmebereich beziehen.
  • Der zweite Aufnahmebereich A-2 kann mittels eines Lernalgorithmus ausgewählt werden. Dabei ist Lernalgorithmus darauf trainiert ist, in Abhängigkeit einer ausgewählten zweiten Startposition S-2 eine zweite Endposition E-2 und damit den zweiten Aufnahmebereich A-2 auszuwählen. In diesem Fall kann es sich bei der zweiten Startposition S-2 insbesondere um die erste Startposition S-1 handeln. Eine Bedienperson kann dann durch Bestätigen oder Korrigieren der zweiten Endposition E-2 eine erste Endposition E-1 auswählen. Der Lernalgorithmus basiert auf der Erkenntnis, dass bestimmte Startpositionen mit bestimmen Aufnahmebereichen verknüpft sind. Weiterhin kann die zweite Startposition S-2 relativ zu einer anatomischen Landmarke 27 bestimmt werden, so dass der Lernalgorithmus die zweite Startposition relativ zu der anatomischen Landmarke 27 auswertet. Eine Variante des hier beschriebenen Verfahrens umfasst das Training des Lernalgorithmus, indem die Bestätigung oder Korrektur einer mittels des Lernalgorithmus ausgewählten zweiten Endposition E-2 bei einer weiteren Auswahl einer zweiten Endposition E-2 berücksichtigt wird.
  • In einer weiteren hier nicht gezeigten Ausführungsform wird der erste Aufnahmebereich A-1 mit dem zweiten Aufnahmebereich A-2 verglichen, wobei basierend auf dem Vergleich ein Bestätigungssignal oder ein Warnhinweis in der Benutzeroberfläche dargestellt wird. Der Vergleich kann mittels der Recheneinheit 15 erfolgen. Bei dem Bestätigungssignal oder dem Warnhinweis kann es sich jeweils um ein statisches oder dynamisches Signal handeln. Insbesondere kann das Bestätigungssignal dargestellt werden, wenn sich der ersten Aufnahmebereich A-1 und der zweite Aufnahmebereich A-2 um mehr als einen ersten Grenzwert überschneiden. Weiterhin kann der der Warnhinweis dargestellt werden, wenn sich der erste Aufnahmebereich A-1 und der zweite Aufnahmebereich A-2 um weniger als einen zweiten Grenzwert überschneiden.
  • 5 zeigt eine Bildschirmansicht mit einem ersten sowie einem zweiten Aufnahmebereich in Seitsicht. Diese Ansicht verdeutlicht, dass die korrekte Auswahl des ersten Aufnahmebereichs A-1 wichtig für das Bestimmen CAL der ersten Position P-1 ist. Das Bestimmen CAL der ersten Position P-1 erfolgt basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des ersten Aufnahmebereiches A-1. Weiterhin ist hier eine zweite Position P-2 dargestellt, welche basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des zweiten Aufnahmebereiches A-2 erfolgt. Es handelt sich bei der ersten Position P-1 um den radiologischen Schwerpunkt des ersten Aufnahmebereichs A-1 und bei der zweiten Position P-2 um den radiologischen Schwerpunkt des zweiten Aufnahmebereichs A-2. In anderen Ausführungsformen der Erfindung kann es sich jeweils um einen geometrischen Schwerpunkt oder um einen anderweiten Schwerpunkt handeln. Durch die Auswahl des ersten Aufnahmebereichs A-1 wird also auch die erste Position P-1 beeinflusst. Die Erfindung ermöglicht durch eine zuverlässigere Auswahl eines Aufnahmebereiches auch eine zuverlässigere Bestimmung der, insbesondere vertikalen, ersten Position P-1 des ersten Aufnahmebereichs A-1 relativ zur Aufnahmeeinheit 17. In der hier gezeigten Ausführungsform der Erfindung bleibt die erste Position P-1 des ersten Aufnahmebereichs A-1 senkrecht zur Systemachse 5 während der Aufnahme TOM-1 konstant.
  • 6 zeigt ein skalierbares Patientenmodell. Beispielsweise können die dargestellten Bildinformationen ein Patientenmodell 26 umfassen, wobei dieses Patientenmodell 26 immer die gleiche Größe auf dem Bildschirm 11 einnimmt. Wird nun ein erster Aufnahmebereich A-1 mit einer ersten Startposition und einer ersten Endposition E-1 in den dargestellten Bildinformationen festgelegt, so wird der tatsächliche Aufnahmebereich entsprechend dem Patientenmodell skaliert. Dabei können neben der Größe einzelner Körperteile des Patienten 3 auch weitere Eigenschaften wie die Größe und Dichte von Organen oder inneren Körperstrukturen skaliert werden. In dem hier gezeigten Beispiel wird der erste Aufnahmebereich A-1 entsprechend dem Abstand Schulter-Hüfte auf das Patientenmodell 26a eines kleineren Patienten sowie auf das Patientenmodell 26b eines größeren Patienten skaliert. Auch die Positionen von Markierungen und/oder Landmarken 27 können entsprechend skaliert werden.
  • 7 zeigt ein Flussdiagram für ein Verfahren zur Auswahl eines Aufnahmebereiches. Das erfindungsgemäße System zur Auswahl eines Aufnahmebereichs ist so gestaltet, dass es die erfindungsgemäßen Verfahrensschritte ausführen und/oder die zur Ausführung des erfindungsgemäßen Verfahrens entsprechenden Geräte ansteuern kann.

Claims (20)

  1. Verfahren zur Auswahl eines Aufnahmebereiches, umfassend folgende Schritte: – Empfangen (REC) eines 3D-Bildes eines auf einer Patientenliege (6) gelagerten Patienten (3), wobei das 3D-Bild Tiefeninformationen über die Kontur des Patienten (3) umfasst, – Darstellen (SCR) von auf dem 3D-Bild basierenden Bildinformationen auf einem Bildschirm (11), wobei die Bildinformationen in eine graphische Benutzeroberfläche eingebettet sind, – Auswählen (SEL) eines ersten Aufnahmebereichs (A-1) basierend auf der Eingabe einer ersten Startposition (S-1) sowie einer ersten Endposition (E-1) in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche, wobei der erste Aufnahmebereich (A-1) als graphisch hervorgehobene, erste Fläche (F-1) dargestellt wird, wobei ein zweiter Aufnahmebereich (A-2) mit einer zweiten Startposition (S-2) sowie einer zweiten Endposition (E-2) in den Bildinformationen dargestellt wird, wobei der zweite Aufnahmebereich (A-2) als graphisch hervorgehobene, zweite Fläche (F-2) dargestellt wird, wobei anatomische Landmarken (27) in dem 3D-Bild und/oder in den Bildinformationen durch Mustererkennung erkannt werden, und wobei der zweite Aufnahmebereich (A-2) basierend auf einem Lernalgorithmus definiert ist, wobei der Lernalgorithmus die erste Startposition (A-1) relativ zu den anatomischen Landmarken (27) auswertet, – Bestimmen (CAL) einer ersten Position (P-1) des ersten Aufnahmebereichs (A-1) relativ zu einer Aufnahmeeinheit (17) basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des ersten Aufnahmebereiches (A-1).
  2. Verfahren nach Anspruch 1, wobei die erste Startposition (S-1) sowie die erste Endposition (E-1) unabhängig voneinander eingegeben werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei eine Aufnahmerichtung für den ersten Aufnahmebereich (A-1) in der Benutzeroberfläche symbolisch dargestellt wird, wobei die Aufnahmerichtung durch die relative Orientierung der ersten Startposition (S-1) sowie der ersten Endposition (E-1) definiert ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei wenigstens ein Untersuchungsbereich (21) in den Bildinformationen markiert wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei das Bestimmen (CAL) weiterhin auf einer Information über die Strahlungsabsorption des ersten Aufnahmebereiches (A-1) basiert, wobei die erste Position (P-1) einen radiologischen Schwerpunkt des ersten Aufnahmebereiche (A-1) oder des Untersuchungsbereichs (21) in dem ersten Aufnahmebereich (A-1) derart angibt, dass der radiologische Schwerpunkt im Isozentrum der Aufnahmeeinheit (17) liegt.
  6. Verfahren nach Anspruch 5, wobei die Information über die Strahlungsabsorption ein skalierbares Patientenmodell mit verschiedenen Teilbereichen umfasst, wobei das Patientenmodell auf dem 3D-Bild und insbesondere den Tiefeninformationen basiert, wobei das Patientenmodell weiterhin auf generischen Strahlungsabsorptionseigenschaften der Teilbereiche basiert.
  7. Verfahren nach einem der Ansprüche 1 bis 4, wobei die erste Position (P-1) einen geometrischen Schwerpunkt des ersten Aufnahmebereiches (A-1) oder des Untersuchungsbereichs (21) in dem ersten Aufnahmebereich (A-1) derart angibt, dass der geometrische Schwerpunkt im Isozentrum der Aufnahmeeinheit (17) liegt.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei der zweite Aufnahmebereich (A-2) durch den Untersuchungsbereich (21) definiert wird, wobei der Untersuchungsbereich (21) durch Abrufen eines gespeicherten Aufnahmeprotokolls ausgewählt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 7, wobei der zweite Aufnahmebereich (A-2) durch den Untersuchungsbereich (21) definiert wird, wobei der Untersuchungsbereich (21) durch Eingabe einer Markierung in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche ausgewählt wird.
  10. Verfahren nach einem der Ansprüche 1 bis 7, wobei der zweite Aufnahmebereich (A-2) durch den Untersuchungsbereich (21) definiert wird, wobei der Untersuchungsbereich (21) in dem 3D-Bild und/oder in den Bildinformationen durch Mustererkennung ausgewählt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei eine graphisch hervorgehobene dritte Fläche (F-3) den Bereich darstellt, in dem sich der erste Aufnahmebereich (A-1) und der zweite Aufnahmebereich (A-2) überschneiden.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei der erste Aufnahmebereich (A-1) mit dem zweiten Aufnahmebereich (A-2) verglichen wird, wobei basierend auf dem Vergleich ein Bestätigungssignal oder ein Warnhinweis in der Benutzeroberfläche dargestellt wird.
  13. Verfahren nach einem der Ansprüche 1 bis 12, wobei der zweite Aufnahmebereich (A-2) basierend auf der ersten Startposition (S-1) dargestellt wird, wobei die erste Startposition (S-1) und die zweite Startposition (S-2) übereinstimmen.
  14. Verfahren nach einem der Ansprüche 1 bis 13, wobei die Eingabe der ersten Endposition (E-1) das Bestätigen oder Verschieben der zweiten Endposition (E-2) umfasst, so dass es sich bei der ersten Endposition (E-1) um die bestätigte oder verschobene zweite Endposition (E-2) handelt.
  15. Verfahren nach einem der Ansprüche 1 bis 14, wobei die Bildinformationen und die graphische Benutzeroberfläche auf einem berührungssensitiven Bildschirm (11) dargestellt werden, wobei die Auswahl (SEL) durch eine Berührung des berührungssensitiven Bildschirms (11) erfolgt.
  16. System zur Auswahl eines Aufnahmebereichs, umfassend folgende Einheiten: – eine Schnittstelle (16) zum Empfangen (REC) eines 3D-Bildes eines auf der Patientenliege (6) gelagerten Patienten (3), wobei das 3D-Bild Tiefeninformationen über die Kontur des Patienten (3) umfasst, – einen Bildschirm (11) zum Darstellen (SCR) von auf dem 3D-Bild basierenden Bildinformationen, wobei die Bildinformationen in eine graphische Benutzeroberfläche eingebettet sind, – eine Eingabeeinheit (7) zum Auswählen (SEL) eines ersten Aufnahmebereichs (A-1) basierend auf der Eingabe einer ersten Startposition (S-1) sowie einer ersten Endposition (E-1) in den dargestellten Bildinformationen durch die graphische Benutzeroberfläche, wobei der erste Aufnahmebereich (A-1) als graphisch hervorgehobene, erste Fläche (F-1) dargestellt wird, wobei ein zweiter Aufnahmebereich (A-2) mit einer zweiten Startposition (S-2) sowie einer zweiten Endposition (E-2) in den Bildinformationen dargestellt wird, wobei der zweite Aufnahmebereich (A-2) als graphisch hervorgehobene, zweite Fläche (F-2) dargestellt wird, wobei anatomische Landmarken (27) in dem 3D-Bild und/oder in den Bildinformationen durch Mustererkennung erkannt werden, und wobei der zweite Aufnahmebereich (A-2) basierend auf einem Lernalgorithmus definiert ist, wobei der Lernalgorithmus die erste Startposition (A-1) relativ zu den anatomischen Landmarken (27) auswertet, – eine Recheneinheit (15) zum Bestimmen (CAL) einer ersten Position (P-1) des ersten Aufnahmebereichs (A-1) relativ zu einer Aufnahmeeinheit basierend auf den Tiefeninformationen sowie basierend auf der Auswahl des ersten Aufnahmebereiches (A-1).
  17. System nach Anspruch 16, weiterhin umfassend eine 3D-Kamera (17), wobei die 3D-Kamera (17) auf die Patientenliege (6) ausgerichtet ist.
  18. System nach Anspruch 16 oder 17, dazu ausgelegt ein Verfahren nach einem der Ansprüche 1 bis 14 durchzuführen.
  19. System nach einem der Ansprüche 16 bis 18, wobei der Bildschirm (11) und die Eingabeeinheit (7) zusammen in Form eines berührungsempfindlichen Bildschirms (11) ausgebildet sind, dazu ausgelegt ein Verfahren nach Anspruch 15 durchzuführen.
  20. System nach einem der Ansprüche 16 bis 19 mit einem Tomographiegerät, sowie weiterhin umfassend: – eine Aufnahmeeinheit (17) mit einer zentralen Systemachse (5), – eine entlang der Systemachse (5) bewegbare Patientenliege (6), – eine Strahlungsquelle (8) und einen mit der Strahlungsquelle (8) zusammenwirkenden Strahlungsdetektor (9), – eine Steuerungseinheit (19) zum automatischen Positionieren (POS) des ersten Aufnahmebereichs (A-1) in der ersten Position (P-1) durch Bewegen der Patientenliege (6) relativ zu der Aufnahmeeinheit (17), wobei das Tomographiegerät zu einer ersten Aufnahme (TOM-1) des ersten Aufnahmebereichs (A-1) in der ersten Position (P-1) ausgelegt ist.
DE102014219667.1A 2014-09-29 2014-09-29 Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs Active DE102014219667B3 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014219667.1A DE102014219667B3 (de) 2014-09-29 2014-09-29 Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs
US14/867,291 US9710141B2 (en) 2014-09-29 2015-09-28 Method for selecting a recording area and system for selecting a recording area
CN201510639196.3A CN105455830B (zh) 2014-09-29 2015-09-29 用于选择记录区域的方法以及用于选择记录区域的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014219667.1A DE102014219667B3 (de) 2014-09-29 2014-09-29 Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs

Publications (1)

Publication Number Publication Date
DE102014219667B3 true DE102014219667B3 (de) 2016-03-03

Family

ID=55312506

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014219667.1A Active DE102014219667B3 (de) 2014-09-29 2014-09-29 Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs

Country Status (3)

Country Link
US (1) US9710141B2 (de)
CN (1) CN105455830B (de)
DE (1) DE102014219667B3 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016207367A1 (de) * 2016-04-29 2017-11-02 Siemens Healthcare Gmbh Festlegen von Scanparametern einer CT-Bildaufnahme mit Hilfe einer Außenbildaufnahme
US10512417B2 (en) 2015-08-21 2019-12-24 Siemens Healthcare Gmbh Imaging apparatus and method for displaying position information
CN111670007A (zh) * 2018-01-31 2020-09-15 西门子医疗有限公司 医学成像设备的拍摄系统的位置规划方法和医学成像设备
DE102019214887A1 (de) * 2019-09-27 2021-04-01 Siemens Healthcare Gmbh Verfahren zu einem automatischen Positionieren eines zu untersuchenden Bereichs eines Patienten für eine medizinische Bildgebungsuntersuchung sowie eine medizinische Bildgebungsvorrichtung, die zu einem Durchführen des Verfahrens ausgelegt ist

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SK284821B6 (sk) 1999-11-26 2005-12-01 Pavel P. Mikk Univerzálny skladací bicykel
US9895131B2 (en) * 2015-10-13 2018-02-20 Siemens Healthcare Gmbh Method and system of scanner automation for X-ray tube with 3D camera
DE102016210131B4 (de) * 2016-06-08 2023-03-09 Siemens Healthcare Gmbh Positionieren eines Untersuchungsobjekts für ein Bildgebungsverfahren
WO2018069095A2 (en) * 2016-10-14 2018-04-19 Agfa Healthcare Method of adjusting settings of a radiation image recording system taking into account patient movement
WO2018069092A2 (en) * 2016-10-14 2018-04-19 Agfa Healthcare Method of adjusting settings of a radiation image recording system
US11000254B2 (en) * 2016-11-22 2021-05-11 General Electric Company Methods and systems for patient scan setup
CN106725570B (zh) 2016-12-30 2019-12-20 上海联影医疗科技有限公司 成像方法及系统
US10507002B2 (en) 2017-05-23 2019-12-17 Siemens Healthcare Gmbh X-ray system and method for standing subject
EP3415093A1 (de) * 2017-06-15 2018-12-19 Koninklijke Philips N.V. Röntgenaufnahmevorrichtung
US10702219B2 (en) * 2017-09-15 2020-07-07 General Electric Company Methods, systems, and apparatus for determining radiation doses
CN107596578B (zh) * 2017-09-21 2020-07-14 上海联影医疗科技有限公司 对准标记的识别和位置确定方法、成像设备及存储介质
EP3469990A1 (de) 2017-10-16 2019-04-17 Koninklijke Philips N.V. Bestimmung eines subjektprofils mit einer kamera
CN107789001B (zh) * 2017-10-31 2021-08-31 上海联影医疗科技股份有限公司 一种用于成像扫描的摆位方法和系统
CN108634975A (zh) * 2018-04-26 2018-10-12 沈阳东软医疗系统有限公司 扫描定位方法和装置
US10799206B2 (en) 2018-09-28 2020-10-13 General Electric Company System and method for calibrating an imaging system
EP3998106A1 (de) 2018-12-17 2022-05-18 Shanghai United Imaging Healthcare Co., Ltd. Systeme und verfahren zur bestimmung einer region von interesse eines probanden
EP3696625B1 (de) * 2019-02-15 2022-04-13 Siemens Aktiengesellschaft Analog-eingabebaugruppe
EP3709006A1 (de) * 2019-03-15 2020-09-16 Primetals Technologies France SAS Sichtkontrollsystem für ein ausgebreitetes produkt
US11317884B2 (en) 2019-12-20 2022-05-03 GE Precision Healthcare LLC Methods and systems for mammography and biopsy workflow optimization
CN212972930U (zh) 2020-04-21 2021-04-16 上海联影医疗科技股份有限公司 磁共振系统
CN113538707A (zh) * 2020-04-22 2021-10-22 西门子(深圳)磁共振有限公司 医疗影像系统的扫描准备方法、装置及系统
DE102020207753A1 (de) * 2020-06-23 2021-12-23 Siemens Healthcare Gmbh Optimierung der Lagerung eines Patienten auf einer Patientenliege für die medizinische Bildgebung
US20220015710A1 (en) * 2020-07-17 2022-01-20 GE Precision Healthcare LLC Systems and methods for patient positioning for imaging acquisition
EP4060363A1 (de) * 2021-03-15 2022-09-21 Koninklijke Philips N.V. Automatische detektion von kritischen stationen in mehrstationen-kernspinbildgebung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090285357A1 (en) * 2008-05-19 2009-11-19 Siemens Corporate Research, Inc. Automatic Patient Positioning System
DE102011083876A1 (de) * 2011-09-30 2013-04-04 Siemens Aktiengesellschaft Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung und Röntgensystem

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19943404B4 (de) * 1999-09-10 2009-10-15 Siemens Ag Verfahren zum Betrieb eines MR-Tomographiegeräts
DE10109219B4 (de) 2001-02-26 2005-07-07 Siemens Ag Positioniereinrichtung für bildgebende Diagnosesysteme
CN1403057A (zh) * 2001-09-13 2003-03-19 田捷 利用三维欧氏距离变换实现ct图像中软组织显示的方法
DE10210050A1 (de) 2002-03-07 2003-12-04 Siemens Ag Verfahren und Vorrichtung zur wiederholt gleichen Relativpositionierung eines Patienten
DE10232676B4 (de) 2002-07-18 2006-01-19 Siemens Ag Verfahren und Vorrichtung zur Positionierung eines Patienten in einem medizinischen Diagnose- oder Therapiegerät
DE10232681A1 (de) 2002-07-18 2004-01-29 Siemens Ag Verfahren und Vorrichtung zur Positionierung eines Patienten in einem medizinischen Diagnose-oder Therapiegerät
US7586501B2 (en) * 2005-05-24 2009-09-08 Siemens Medical Solutions Usa, Inc. Simultaneous projection of multi-branched vessels and their context on a single image
DE102006001850B4 (de) 2006-01-13 2015-03-26 Siemens Aktiengesellschaft Bildgebendes medizintechnisches Gerät und Verfahren
DE102007013407B4 (de) * 2007-03-20 2014-12-04 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Bereitstellung einer Korrekturinformation
DE102007017794B3 (de) 2007-04-16 2008-12-04 Siemens Ag Verfahren und Vorrichtung zur Positionierung einer verfahrbaren Patientenliege
DE102007024452A1 (de) 2007-05-25 2008-11-27 Siemens Ag Verfahren, Tomographiesystem und Bildbearbeitungssystem zur Darstellung tomographischer Aufnahmen eines Patienten
US10993678B2 (en) * 2010-11-24 2021-05-04 Edda Technology Medical Solutions (Suzhou) Ltd. System and method for interactive three dimensional operation guidance system for soft organs based on anatomic map and tracking surgical instrument
DE102012201798A1 (de) 2012-02-07 2013-08-08 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE102012214513A1 (de) 2012-08-15 2014-02-20 Siemens Aktiengesellschaft Automatisierte Qualitätskontrolle für ein Röntgenbild
US9539441B2 (en) * 2013-09-13 2017-01-10 Elekta Ab (Publ) Radiotherapy system with advanced graphical user interface
DE102013220665A1 (de) 2013-10-14 2015-04-16 Siemens Aktiengesellschaft Bestimmung eines Werts eines Aufnahmeparameters mittels einer anatomischen Landmarke

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090285357A1 (en) * 2008-05-19 2009-11-19 Siemens Corporate Research, Inc. Automatic Patient Positioning System
DE102011083876A1 (de) * 2011-09-30 2013-04-04 Siemens Aktiengesellschaft Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung und Röntgensystem

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10512417B2 (en) 2015-08-21 2019-12-24 Siemens Healthcare Gmbh Imaging apparatus and method for displaying position information
DE102016207367A1 (de) * 2016-04-29 2017-11-02 Siemens Healthcare Gmbh Festlegen von Scanparametern einer CT-Bildaufnahme mit Hilfe einer Außenbildaufnahme
US10470738B2 (en) 2016-04-29 2019-11-12 Siemens Healthcare Gmbh Defining scanning parameters of a CT scan using external image capture
CN111670007A (zh) * 2018-01-31 2020-09-15 西门子医疗有限公司 医学成像设备的拍摄系统的位置规划方法和医学成像设备
DE102019214887A1 (de) * 2019-09-27 2021-04-01 Siemens Healthcare Gmbh Verfahren zu einem automatischen Positionieren eines zu untersuchenden Bereichs eines Patienten für eine medizinische Bildgebungsuntersuchung sowie eine medizinische Bildgebungsvorrichtung, die zu einem Durchführen des Verfahrens ausgelegt ist
US11826135B2 (en) 2019-09-27 2023-11-28 Siemens Healthcare Gmbh Method and system for automatically positioning a region of interest of a patient for a medical imaging examination

Also Published As

Publication number Publication date
US20160092078A1 (en) 2016-03-31
CN105455830B (zh) 2018-12-07
CN105455830A (zh) 2016-04-06
US9710141B2 (en) 2017-07-18

Similar Documents

Publication Publication Date Title
DE102014219667B3 (de) Verfahren zur Auswahl eines Aufnahmebereiches und System zur Auswahl eines Aufnahmebereichs
EP3182895B1 (de) Steuerung der positionierung eines scanbereichs einer medizintechnischen bildgebenden anlage
DE102014223103A1 (de) Tomographisches Gerät sowie Verfahren und Computerprogramm zur modellbasierten Positionierung
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
DE102015014908B4 (de) Vorrichtung, Verfahren und Programm zum Verarbeiten eines medizinischen Bildes, und Röntgentherapievorrichtung
DE102014205702A1 (de) Positionierungseinheit zur Positionierung eines Patienten, bildgebendes Gerät sowie Verfahren zum optischen Erzeugen einer Positionierungshilfe
DE112016005720T5 (de) 3D-Visualisierung während Chirurgie mit verringerter Strahlenbelastung
DE102017010680A1 (de) Medizinische Bildverarbeitungsvorrichtung, medizinisches Bildverarbeitungsverfahren, computerlesbares medizinisches Bildverarbeitungsprogramm, Bewegt-Objekt-Verfolgungsvorrichtung, und Strahlentherapiesystem
EP3501400A1 (de) Verfahren und vorrichtung zur sicherstellung einer korrekten positionierung für eine radiographieaufnahme
DE102006024242A1 (de) Verfahren zur Detektierung einer Abweichung eines Röntgensystems in Bezug auf eine Soll-Position
DE102015204449A1 (de) Verfahren zum Bestimmen eines Röntgenröhrenstromprofils, Computerprogramm, Datenträger sowie Röntgenbildaufnahmevorrichtung
DE102012201798A1 (de) Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE102006006038B4 (de) System zur bildlich dargestellten Verfolgung eines in ein Untersuchungsobjekt mindestens teilweise eingeführten, bewegten medizinischen Instruments
DE102006004692A1 (de) Bildgebendes medizintechnisches Gerät und Verfahren für ein derartiges Gerät
DE102006044783A1 (de) Verfahren zur Aufnahme von Bildern eines bestimmbaren Bereichs eines Untersuchungsobjekts mittels einer Computertomographieeinrichtung
DE102017215059B3 (de) Verfahren zum Betrieb einer bildgebenden Röntgeneinrichtung, insbesondere Computertomograph, Röntgeneinrichtung und Computerprogrammprodukt
DE102017004705A1 (de) Verfahren zum Erzeugen eines in der Zentralschicht vollständigen 3D-Datensatzes zur Volumenrekonstruktion und Röntgensystem mit einem Kegelstrahl-C-Bogen-Röntgengerät zur Durchführung des Verfahrens
DE102014219666A1 (de) Verfahren zur automatischen Patientenpositionierung sowie bildgebendes System
EP3210537B1 (de) Erstellung eines dreidimensionalen abbilds eines körperteils durch ein röntgengerät
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102019204508A1 (de) Verfahren zur Blendeneinstellung eines Röntgensystems
DE102012202498B4 (de) Automatische Positionierung von Kollimatoren
DE202017002625U1 (de) Röntgensystem mit einem Kegelstrahl-C-Bogen-Röntgengerät zum Erzeugen eines in der Zentralschicht vollständigen 3D-Datensatzes zur Volumenrekonstruktion
DE102007009177B4 (de) Verfahren zu dreidimensionalen Lokalisation eines Instruments für einen interventionellen Eingriff sowie zugehörige Einrichtung
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0006040000

Ipc: A61B0019000000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE